추론은 훈련된 모델을 사용하여 새 데이터에 대한 예측을 수행하는 과정입니다. 이 과정은 계산이 많이 필요할 수 있으므로, 전용 서버에서 실행하는 것이 좋은 방안이 될 수 있습니다. huggingface_hub
라이브러리는 호스팅된 모델에 대한 추론을 실행하는 서비스를 호출하는 간편한 방법을 제공합니다. 다음과 같은 여러 서비스에 연결할 수 있습니다:
이러한 서비스들은 InferenceClient
객체를 사용하여 호출할 수 있습니다. 이는 이전의 InferenceApi
클라이언트를 대체하는 역할을 하며, 작업에 대한 특별한 지원을 추가하고 추론 API 및 추론 엔드포인트에서 추론 작업을 처리합니다. 새 클라이언트로의 마이그레이션에 대한 자세한 내용은 레거시 InferenceAPI 클라이언트 섹션을 참조하세요.
InferenceClient
는 API에 HTTP 호출을 수행하는 Python 클라이언트입니다. HTTP 호출을 원하는 툴을 이용하여 직접 사용하려면 (curl, postman 등) 추론 API 또는 추론 엔드포인트 문서 페이지를 참조하세요.
text-to-image 작업을 시작해보겠습니다.
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> image = client.text_to_image("An astronaut riding a horse on the moon.")
>>> image.save("astronaut.png")
우리는 기본 매개변수로 InferenceClient
를 초기화했습니다. 수행하고자 하는 작업만 알면 됩니다. 기본적으로 클라이언트는 추론 API에 연결하고 작업을 완료할 모델을 선택합니다. 예제에서는 텍스트 프롬프트에서 이미지를 생성했습니다. 반환된 값은 파일로 저장할 수 있는 PIL.Image
객체입니다.
API는 간단하게 설계되었습니다. 모든 매개변수와 옵션이 사용 가능하거나 설명되어 있는 것은 아닙니다. 각 작업에서 사용 가능한 모든 매개변수에 대해 자세히 알아보려면 이 페이지를 확인하세요.
특정 모델을 사용하고 싶다면 어떻게 해야 할까요? 매개변수로 직접 지정하거나 인스턴스 수준에서 직접 지정할 수 있습니다:
>>> from huggingface_hub import InferenceClient
# 특정 모델을 위한 클라이언트를 초기화합니다.
>>> client = InferenceClient(model="prompthero/openjourney-v4")
>>> client.text_to_image(...)
# 또는 일반적인 클라이언트를 사용하되 모델을 인수로 전달하세요.
>>> client = InferenceClient()
>>> client.text_to_image(..., model="prompthero/openjourney-v4")
Hugging Face Hub에는 20만 개가 넘는 모델이 있습니다! InferenceClient
의 각 작업에는 추천되는 모델이 포함되어 있습니다. HF의 추천은 사전 고지 없이 시간이 지남에 따라 변경될 수 있음을 유의하십시오. 따라서 모델을 결정한 후에는 명시적으로 모델을 설정하는 것이 좋습니다. 또한 대부분의 경우 자신의 필요에 맞는 모델을 직접 찾고자 할 것입니다. 허브의 모델 페이지를 방문하여 찾아보세요.
위에서 본 예제들은 서버리스 추론 API를 사용합니다. 이는 빠르게 프로토타입을 정하고 테스트할 때 매우 유용합니다. 모델을 프로덕션 환경에 배포할 준비가 되면 전용 인프라를 사용해야 합니다. 그것이 추론 엔드포인트가 필요한 이유입니다. 이를 사용하면 모든 모델을 배포하고 개인 API로 노출시킬 수 있습니다. 한 번 배포되면 이전과 완전히 동일한 코드를 사용하여 연결할 수 있는 URL을 얻게 됩니다. model
매개변수만 변경하면 됩니다:
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient(model="https://uu149rez6gw9ehej.eu-west-1.aws.endpoints.huggingface.cloud/deepfloyd-if")
# 또는
>>> client = InferenceClient()
>>> client.text_to_image(..., model="https://uu149rez6gw9ehej.eu-west-1.aws.endpoints.huggingface.cloud/deepfloyd-if")
InferenceClient
로 수행된 호출은 사용자 액세스 토큰을 사용하여 인증할 수 있습니다. 기본적으로 로그인한 경우 기기에 저장된 토큰을 사용합니다 (인증 방법을 확인하세요). 로그인하지 않은 경우 인스턴스 매개변수로 토큰을 전달할 수 있습니다.
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient(token="hf_***")
추론 API를 사용할 때 인증은 필수가 아닙니다. 그러나 인증된 사용자는 서비스를 이용할 수 있는 더 높은 무료 티어를 받습니다. 토큰은 개인 모델이나 개인 엔드포인트에서 추론을 실행하려면 필수입니다.
InferenceClient
의 목표는 Hugging Face 모델에서 추론을 실행하기 위한 가장 쉬운 인터페이스를 제공하는 것입니다. 이는 가장 일반적인 작업들을 지원하는 간단한 API를 가지고 있습니다. 현재 지원되는 작업 목록은 다음과 같습니다:
도메인 | 작업 | 지원 여부 | 문서 |
---|---|---|---|
오디오 | 오디오 분류 | ✅ | audio_classification() |
오디오 | 오디오 투 오디오 | ✅ | audio_to_audio() |
자동 음성 인식 | ✅ | automatic_speech_recognition() | |
텍스트 투 스피치 | ✅ | text_to_speech() | |
컴퓨터 비전 | 이미지 분류 | ✅ | image_classification() |
이미지 분할 | ✅ | image_segmentation() | |
이미지 투 이미지 | ✅ | image_to_image() | |
이미지 투 텍스트 | ✅ | image_to_text() | |
객체 탐지 | ✅ | object_detection() | |
텍스트 투 이미지 | ✅ | text_to_image() | |
제로샷 이미지 분류 | ✅ | zero_shot_image_classification() | |
멀티모달 | 문서 질의 응답 | ✅ | document_question_answering() |
시각적 질의 응답 | ✅ | visual_question_answering() | |
자연어 처리 | 대화형 | ✅ | conversational() |
특성 추출 | ✅ | feature_extraction() | |
마스크 채우기 | ✅ | fill_mask() | |
질의 응답 | ✅ | question_answering() | |
문장 유사도 | ✅ | sentence_similarity() | |
요약 | ✅ | summarization() | |
테이블 질의 응답 | ✅ | table_question_answering() | |
텍스트 분류 | ✅ | text_classification() | |
텍스트 생성 | ✅ | text_generation() | |
토큰 분류 | ✅ | token_classification() | |
번역 | ✅ | translation() | |
제로샷 분류 | ✅ | zero_shot_classification() | |
타블로 | 타블로 작업 분류 | ✅ | tabular_classification() |
타블로 회귀 | ✅ | tabular_regression() |
각 작업에 대해 더 자세히 알고 싶거나 사용 방법 및 각 작업에 대한 가장 인기 있는 모델을 알아보려면 Tasks 페이지를 확인하세요.
그러나 모든 경우를 항상 완벽하게 다루는 것은 어렵습니다. 사용자 정의 요청의 경우, InferenceClient.post()
메소드를 사용하여 Inference API로 요청을 보낼 수 있습니다. 예를 들어, 입력 및 출력을 어떻게 파싱할지 지정할 수 있습니다. 아래 예시에서 생성된 이미지는 PIL Image
로 파싱하는 대신 원본 바이트로 반환됩니다. 이는 설치된 Pillow
가 없고 이미지의 이진 콘텐츠에만 관심이 있는 경우에 유용합니다. InferenceClient.post()
는 아직 공식적으로 지원되지 않는 작업을 처리하는 데도 유용합니다.
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> response = client.post(json={"inputs": "An astronaut riding a horse on the moon."}, model="stabilityai/stable-diffusion-2-1")
>>> response.content # 원시 바이트
b'...'
asyncio
와 aiohttp
를 기반으로 한 클라이언트의 비동기 버전도 제공됩니다. aiohttp
를 직접 설치하거나 [inference]
추가 옵션을 사용할 수 있습니다:
pip install --upgrade huggingface_hub[inference]
# 또는
# pip install aiohttp
설치 후 모든 비동기 API 엔드포인트는 AsyncInferenceClient
를 통해 사용할 수 있습니다. 초기화 및 API는 동기 전용 버전과 완전히 동일합니다.
# 코드는 비동기 asyncio 라이브러리 동시성 컨텍스트에서 실행되어야 합니다.
# $ python -m asyncio
>>> from huggingface_hub import AsyncInferenceClient
>>> client = AsyncInferenceClient()
>>> image = await client.text_to_image("An astronaut riding a horse on the moon.")
>>> image.save("astronaut.png")
>>> async for token in await client.text_generation("The Huggingface Hub is", stream=True):
... print(token, end="")
a platform for sharing and discussing ML-related content.
asyncio
모듈에 대한 자세한 정보는 공식 문서를 참조하세요.
위 섹션에서는 InferenceClient
의 주요 측면을 살펴보았습니다. 이제 몇 가지 고급 팁에 대해 자세히 알아보겠습니다.
추론을 수행할 때 타임아웃이 발생하는 주요 원인은 두 가지입니다:
InferenceClient
에는 이 두 가지를 처리하기 위한 전역 timeout
매개변수가 있습니다. 기본값은 None
으로 설정되어 있으며, 클라이언트가 추론이 완료될 때까지 무기한으로 기다리게 합니다. 워크플로우에서 더 많은 제어를 원하는 경우 초 단위의 특정한 값으로 설정할 수 있습니다. 타임아웃 딜레이가 만료되면 InferenceTimeoutError
가 발생합니다. 이를 코드에서 처리할 수 있습니다:
>>> from huggingface_hub import InferenceClient, InferenceTimeoutError
>>> client = InferenceClient(timeout=30)
>>> try:
... client.text_to_image(...)
... except InferenceTimeoutError:
... print("Inference timed out after 30s.")
일부 작업에는 이미지 또는 오디오 파일을 처리할 때와 같이 이진 입력이 필요한 경우가 있습니다. 이 경우 InferenceClient
는 최대한 다양한 유형을 융통성 있게 허용합니다:
bytes
with open("audio.flac", "rb") as f: ...
)str
또는 Path
)str
) (예: https://...
). 이 경우 파일은 Inference API로 전송되기 전에 로컬로 다운로드됩니다.>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> client.image_classification("https://upload.wikimedia.org/wikipedia/commons/thumb/4/43/Cute_dog.jpg/320px-Cute_dog.jpg")
[{'score': 0.9779096841812134, 'label': 'Blenheim spaniel'}, ...]
InferenceClient
는 레거시 InferenceApi
클라이언트를 대체하여 작동합니다. 특정 작업에 대한 지원을 제공하고 추론 API 및 추론 엔드포인트에서 추론을 처리합니다.
아래는 InferenceApi
에서 InferenceClient
로 마이그레이션하는 데 도움이 되는 간단한 가이드입니다.
변경 전:
>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="bert-base-uncased", token=API_TOKEN)
변경 후:
>>> from huggingface_hub import InferenceClient
>>> inference = InferenceClient(model="bert-base-uncased", token=API_TOKEN)
변경 전:
>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="paraphrase-xlm-r-multilingual-v1", task="feature-extraction")
>>> inference(...)
변경 후:
>>> from huggingface_hub import InferenceClient
>>> inference = InferenceClient()
>>> inference.feature_extraction(..., model="paraphrase-xlm-r-multilingual-v1")
위의 방법은 코드를 InferenceClient
에 맞게 조정하는 권장 방법입니다. 이렇게 하면 feature_extraction
과 같이 작업에 특화된 메소드를 활용할 수 있습니다.
변경 전:
>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="bert-base-uncased")
>>> inference(inputs="The goal of life is [MASK].")
[{'sequence': 'the goal of life is life.', 'score': 0.10933292657136917, 'token': 2166, 'token_str': 'life'}]
변경 후:
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> response = client.post(json={"inputs": "The goal of life is [MASK]."}, model="bert-base-uncased")
>>> response.json()
[{'sequence': 'the goal of life is life.', 'score': 0.10933292657136917, 'token': 2166, 'token_str': 'life'}]
변경 전:
>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="typeform/distilbert-base-uncased-mnli")
>>> inputs = "Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!"
>>> params = {"candidate_labels":["refund", "legal", "faq"]}
>>> inference(inputs, params)
{'sequence': 'Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!', 'labels': ['refund', 'faq', 'legal'], 'scores': [0.9378499388694763, 0.04914155602455139, 0.013008488342165947]}
변경 후:
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> inputs = "Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!"
>>> params = {"candidate_labels":["refund", "legal", "faq"]}
>>> response = client.post(json={"inputs": inputs, "parameters": params}, model="typeform/distilbert-base-uncased-mnli")
>>> response.json()
{'sequence': 'Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!', 'labels': ['refund', 'faq', 'legal'], 'scores': [0.9378499388694763, 0.04914155602455139, 0.013008488342165947]}