철학

🧨 Diffusers는 다양한 모달리티에서 최신의 사전 훈련된 diffusion 모델을 제공합니다. 그 목적은 추론과 훈련을 위한 모듈식 툴박스로 사용되는 것입니다.

우리는 오랜 시간에 견딜 수 있는 라이브러리를 구축하는 것을 목표로 하고, 따라서 API 설계를 매우 중요시합니다.

간단히 말해서, Diffusers는 PyTorch의 자연스러운 확장이 되도록 구축되었습니다. 따라서 대부분의 설계 선택은 PyTorch의 설계 원칙에 기반합니다. 이제 가장 중요한 것들을 살펴보겠습니다:

성능보다는 사용성을

쉬움보다는 간단함을

PyTorch에서는 명시적인 것이 암시적인 것보다 낫다단순한 것이 복잡한 것보다 낫다라고 말합니다. 이 설계 철학은 라이브러리의 여러 부분에 반영되어 있습니다:

추상화보다는 수정 가능하고 기여하기 쉬움을

라이브러리의 대부분에 대해 Diffusers는 Transformers 라이브러리의 중요한 설계 원칙을 채택합니다, 바로 성급한 추상화보다는 copy-pasted 코드를 선호한다는 것입니다. 이 설계 원칙은 Don’t repeat yourself (DRY)와 같은 인기 있는 설계 원칙과는 대조적으로 매우 의견이 분분한데요. 간단히 말해서, Transformers가 모델링 파일에 대해 수행하는 것처럼, Diffusers는 매우 낮은 수준의 추상화와 매우 독립적인 코드를 유지하는 것을 선호합니다. 함수, 긴 코드 블록, 심지어 클래스도 여러 파일에 복사할 수 있으며, 이는 처음에는 라이브러리를 유지할 수 없게 만드는 나쁜, 서투른 설계 선택으로 보일 수 있습니다. 하지만 이러한 설계는 매우 성공적이며, 커뮤니티 기반의 오픈 소스 기계 학습 라이브러리에 매우 적합합니다. 그 이유는 다음과 같습니다:

Hugging Face에서는 이 설계를 단일 파일 정책이라고 부르며, 특정 클래스의 대부분의 코드가 단일하고 독립적인 파일에 작성되어야 한다는 의미입니다. 철학에 대해 자세히 알아보려면 이 블로그 글을 참조할 수 있습니다.

Diffusers에서는 이러한 철학을 파이프라인과 스케줄러에 모두 따르지만, diffusion 모델에 대해서는 일부만 따릅니다. 일부만 따르는 이유는 Diffusion 파이프라인인 DDPM, Stable Diffusion, unCLIP (DALL·E 2)Imagen 등 대부분의 diffusion 파이프라인은 동일한 diffusion 모델인 UNet에 의존하기 때문입니다.

좋아요, 이제 🧨 Diffusers가 설계된 방식을 대략적으로 이해했을 것입니다 🤗. 우리는 이러한 설계 원칙을 일관되게 라이브러리 전체에 적용하려고 노력하고 있습니다. 그럼에도 불구하고 철학에 대한 일부 예외 사항이나 불행한 설계 선택이 있을 수 있습니다. 디자인에 대한 피드백이 있다면 GitHub에서 직접 알려주시면 감사하겠습니다.

디자인 철학 자세히 알아보기

이제 디자인 철학의 세부 사항을 좀 더 자세히 살펴보겠습니다. Diffusers는 주로 세 가지 주요 클래스로 구성됩니다: 파이프라인, 모델, 그리고 스케줄러. 각 클래스에 대한 더 자세한 설계 결정 사항을 살펴보겠습니다.

파이프라인

파이프라인은 사용하기 쉽도록 설계되었으며 (따라서 쉬움보다는 간단함을을 100% 따르지는 않음), feature-complete하지 않으며, 추론을 위한 모델스케줄러를 사용하는 방법의 예시로 간주될 수 있습니다.

다음과 같은 설계 원칙을 따릅니다:

모델

모델은 PyTorch의 Module 클래스의 자연스러운 확장이 되도록, 구성 가능한 툴박스로 설계되었습니다. 그리고 모델은 단일 파일 정책을 일부만 따릅니다.

다음과 같은 설계 원칙을 따릅니다:

스케줄러

스케줄러는 추론을 위한 노이즈 제거 과정을 안내하고 훈련을 위한 노이즈 스케줄을 정의하는 역할을 합니다. 스케줄러는 개별 클래스로 설계되어 있으며, 로드 가능한 구성 파일과 단일 파일 정책을 엄격히 따릅니다.

다음과 같은 설계 원칙을 따릅니다:

< > Update on GitHub