🧨 Diffusers는 다양한 모달리티에서 최신의 사전 훈련된 diffusion 모델을 제공합니다. 그 목적은 추론과 훈련을 위한 모듈식 툴박스로 사용되는 것입니다.
우리는 오랜 시간에 견딜 수 있는 라이브러리를 구축하는 것을 목표로 하고, 따라서 API 설계를 매우 중요시합니다.
간단히 말해서, Diffusers는 PyTorch의 자연스러운 확장이 되도록 구축되었습니다. 따라서 대부분의 설계 선택은 PyTorch의 설계 원칙에 기반합니다. 이제 가장 중요한 것들을 살펴보겠습니다:
accelerate
, safetensors
, onnx
등). 저희는 라이브러리를 가능한 한 가볍게 유지하여 다른 패키지에 대한 종속성 걱정이 없도록 노력하고 있습니다.PyTorch에서는 명시적인 것이 암시적인 것보다 낫다와 단순한 것이 복잡한 것보다 낫다라고 말합니다. 이 설계 철학은 라이브러리의 여러 부분에 반영되어 있습니다:
DiffusionPipeline.to
와 같은 메서드를 사용하여 사용자가 장치 관리를 할 수 있도록 PyTorch의 API를 따릅니다.라이브러리의 대부분에 대해 Diffusers는 Transformers 라이브러리의 중요한 설계 원칙을 채택합니다, 바로 성급한 추상화보다는 copy-pasted 코드를 선호한다는 것입니다. 이 설계 원칙은 Don’t repeat yourself (DRY)와 같은 인기 있는 설계 원칙과는 대조적으로 매우 의견이 분분한데요. 간단히 말해서, Transformers가 모델링 파일에 대해 수행하는 것처럼, Diffusers는 매우 낮은 수준의 추상화와 매우 독립적인 코드를 유지하는 것을 선호합니다. 함수, 긴 코드 블록, 심지어 클래스도 여러 파일에 복사할 수 있으며, 이는 처음에는 라이브러리를 유지할 수 없게 만드는 나쁜, 서투른 설계 선택으로 보일 수 있습니다. 하지만 이러한 설계는 매우 성공적이며, 커뮤니티 기반의 오픈 소스 기계 학습 라이브러리에 매우 적합합니다. 그 이유는 다음과 같습니다:
Hugging Face에서는 이 설계를 단일 파일 정책이라고 부르며, 특정 클래스의 대부분의 코드가 단일하고 독립적인 파일에 작성되어야 한다는 의미입니다. 철학에 대해 자세히 알아보려면 이 블로그 글을 참조할 수 있습니다.
Diffusers에서는 이러한 철학을 파이프라인과 스케줄러에 모두 따르지만, diffusion 모델에 대해서는 일부만 따릅니다. 일부만 따르는 이유는 Diffusion 파이프라인인 DDPM, Stable Diffusion, unCLIP (DALL·E 2) 및 Imagen 등 대부분의 diffusion 파이프라인은 동일한 diffusion 모델인 UNet에 의존하기 때문입니다.
좋아요, 이제 🧨 Diffusers가 설계된 방식을 대략적으로 이해했을 것입니다 🤗. 우리는 이러한 설계 원칙을 일관되게 라이브러리 전체에 적용하려고 노력하고 있습니다. 그럼에도 불구하고 철학에 대한 일부 예외 사항이나 불행한 설계 선택이 있을 수 있습니다. 디자인에 대한 피드백이 있다면 GitHub에서 직접 알려주시면 감사하겠습니다.
이제 디자인 철학의 세부 사항을 좀 더 자세히 살펴보겠습니다. Diffusers는 주로 세 가지 주요 클래스로 구성됩니다: 파이프라인, 모델, 그리고 스케줄러. 각 클래스에 대한 더 자세한 설계 결정 사항을 살펴보겠습니다.
파이프라인은 사용하기 쉽도록 설계되었으며 (따라서 쉬움보다는 간단함을을 100% 따르지는 않음), feature-complete하지 않으며, 추론을 위한 모델과 스케줄러를 사용하는 방법의 예시로 간주될 수 있습니다.
다음과 같은 설계 원칙을 따릅니다:
src/diffusers/pipelines/stable-diffusion
에서 그렇게 하고 있습니다. 파이프라인이 유사한 기능을 공유하는 경우, #Copied from mechanism을 사용할 수 있습니다.DiffusionPipeline
을 상속합니다.model_index.json
파일에 문서화되어 있으며, 파이프라인의 속성 이름과 동일한 이름으로 액세스할 수 있으며, DiffusionPipeline.components
함수를 통해 파이프라인 간에 공유할 수 있습니다.DiffusionPipeline.from_pretrained
함수를 통해 로드할 수 있어야 합니다.__call__
메서드를 통해 실행할 수 있어야 합니다. __call__
인자의 이름은 모든 파이프라인에서 공유되어야 합니다.모델은 PyTorch의 Module 클래스의 자연스러운 확장이 되도록, 구성 가능한 툴박스로 설계되었습니다. 그리고 모델은 단일 파일 정책을 일부만 따릅니다.
다음과 같은 설계 원칙을 따릅니다:
UNet2DConditionModel
클래스는 2D 이미지 입력을 기대하고 일부 context에 의존하는 모든 UNet 변형들에 사용됩니다.src/diffusers/models
에서 찾을 수 있으며, 각 모델 아키텍처는 해당 파일에 정의되어야 합니다. 예를 들어 unet_2d_condition.py
, transformer_2d.py
등이 있습니다.attention.py
, resnet.py
, embeddings.py
등과 같은 작은 모델 구성 요소를 사용해야 합니다. 참고: 이는 Transformers의 모델링 파일과는 대조적으로 모델이 실제로 단일 파일 정책을 따르지 않음을 보여줍니다.Module
클래스와 마찬가지로 복잡성을 노출하고 명확한 오류 메시지를 제공해야 합니다.ModelMixin
과 ConfigMixin
을 상속합니다.is_..._type
인수보다는 새로운 미래 유형에 쉽게 확장할 수 있는 문자열 “…type” 인수를 추가하는 것이 일반적으로 더 좋습니다. 새로운 모델 체크포인트가 작동하도록 하기 위해 기존 아키텍처에 최소한의 변경만을 가해야 합니다.스케줄러는 추론을 위한 노이즈 제거 과정을 안내하고 훈련을 위한 노이즈 스케줄을 정의하는 역할을 합니다. 스케줄러는 개별 클래스로 설계되어 있으며, 로드 가능한 구성 파일과 단일 파일 정책을 엄격히 따릅니다.
다음과 같은 설계 원칙을 따릅니다:
src/diffusers/schedulers
에서 찾을 수 있습니다.#Copied from
메커니즘을 사용할 수 있습니다.SchedulerMixin
과 ConfigMixin
을 상속합니다.ConfigMixin.from_config
메서드를 사용하여 스케줄러를 쉽게 교체할 수 있습니다. 자세한 내용은 여기에서 설명합니다.set_num_inference_steps
와 step
함수를 가져야 합니다. set_num_inference_steps(...)
는 각 노이즈 제거 과정(즉, step(...)
이 호출되기 전) 이전에 호출되어야 합니다.timesteps
속성을 통해 루프를 돌 수 있는 타임스텝을 노출합니다.step(...)
함수는 예측된 모델 출력과 “현재” 샘플(x_t)을 입력으로 받고, “이전” 약간 더 노이즈가 제거된 샘플(x_t-1)을 반환합니다.step
함수는 모든 복잡성을 노출하지 않으며, “블랙 박스”일 수 있습니다.