chenlei1983
commited on
Commit
•
92655d1
1
Parent(s):
d0dd555
Upload README_zh_CN.md
Browse files- README_zh_CN.md +122 -0
README_zh_CN.md
ADDED
@@ -0,0 +1,122 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
<div align="center">
|
2 |
+
<img src="./assets/xorbits-logo.png" width="180px" alt="xorbits" />
|
3 |
+
|
4 |
+
# Xorbits Inference:模型推理, 轻而易举 🤖
|
5 |
+
|
6 |
+
[![PyPI Latest Release](https://img.shields.io/pypi/v/xinference.svg?style=for-the-badge)](https://pypi.org/project/xinference/)
|
7 |
+
[![License](https://img.shields.io/pypi/l/xinference.svg?style=for-the-badge)](https://github.com/xorbitsai/inference/blob/main/LICENSE)
|
8 |
+
[![Build Status](https://img.shields.io/github/actions/workflow/status/xorbitsai/inference/python.yaml?branch=main&style=for-the-badge&label=GITHUB%20ACTIONS&logo=github)](https://actions-badge.atrox.dev/xorbitsai/inference/goto?ref=main)
|
9 |
+
[![WeChat](https://img.shields.io/badge/添加微信小助手-07C160?style=for-the-badge&logo=wechat&logoColor=white)](https://xorbits.cn/assets/images/wechat_work_qr.png)
|
10 |
+
[![Zhihu](https://img.shields.io/static/v1?style=for-the-badge&message=未来速度&color=0084FF&logo=Zhihu&logoColor=FFFFFF&label=)](https://www.zhihu.com/org/xorbits)
|
11 |
+
|
12 |
+
[English](README.md) | 中文介绍 | [日本語](README_ja_JP.md)
|
13 |
+
</div>
|
14 |
+
<br />
|
15 |
+
|
16 |
+
|
17 |
+
Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地一键部署你自己的模型或内置的前沿开源模型。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。
|
18 |
+
|
19 |
+
|
20 |
+
<div align="center">
|
21 |
+
<i><a href="https://xorbits.cn/assets/images/wechat_work_qr.png">👉 添加企业微信、加入Xinference社区!</a></i>
|
22 |
+
</div>
|
23 |
+
|
24 |
+
## 🔥 近期热点
|
25 |
+
### 框架增强
|
26 |
+
- 支持语音识别模型: [#929](https://github.com/xorbitsai/inference/pull/929)
|
27 |
+
- 增加 Metrics 统计信息: [#906](https://github.com/xorbitsai/inference/pull/906)
|
28 |
+
- Docker 镜像支持: [#855](https://github.com/xorbitsai/inference/pull/855)
|
29 |
+
- 支持多模态模型:[#829](https://github.com/xorbitsai/inference/pull/829)
|
30 |
+
- 模型自动恢复: [#694](https://github.com/xorbitsai/inference/pull/694)
|
31 |
+
- 函数调用接口: [#701](https://github.com/xorbitsai/inference/pull/701),示例代码:https://github.com/xorbitsai/inference/blob/main/examples/FunctionCall.ipynb
|
32 |
+
- 支持 rerank 模型: [#672](https://github.com/xorbitsai/inference/pull/672)
|
33 |
+
### 新模型
|
34 |
+
- 内置 [Gemma](https://github.com/google-deepmind/gemma): [#1024](https://github.com/xorbitsai/inference/pull/1024)
|
35 |
+
- 内置 [Qwen1.5](https://github.com/QwenLM/Qwen1.5): [#994](https://github.com/xorbitsai/inference/pull/994)
|
36 |
+
- 内置 [Yi-VL](https://github.com/01-ai/Yi): [#946](https://github.com/xorbitsai/inference/pull/946)
|
37 |
+
- 内置 [Whisper](https://github.com/openai/whisper): [#929](https://github.com/xorbitsai/inference/pull/929)
|
38 |
+
- 内置 [Orion-chat](https://huggingface.co/OrionStarAI): [#933](https://github.com/xorbitsai/inference/pull/933)
|
39 |
+
- 内置 [InternLM2-chat](https://huggingface.co/internlm/internlm2-chat-7b): [#829](https://github.com/xorbitsai/inference/pull/913)
|
40 |
+
### 集成
|
41 |
+
- [Dify](https://docs.dify.ai/advanced/model-configuration/xinference): 一个涵盖了大型语言模型开发、部署、维护和优化的 LLMOps 平台。
|
42 |
+
- [Chatbox](https://chatboxai.app/): 一个支持前沿大语言模型的桌面客户端,支持 Windows,Mac,以及 Linux。
|
43 |
+
|
44 |
+
## 主要功能
|
45 |
+
🌟 **模型推理,轻而易举**:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。一个命令即可完成模型的部署工作。
|
46 |
+
|
47 |
+
⚡️ **前沿模型,应有尽有**:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2 等,一键即可体验!内置模型列表还在快速更新中!
|
48 |
+
|
49 |
+
🖥 **异构硬件,快如闪电**:通过 [ggml](https://github.com/ggerganov/ggml),同时使用你的 GPU 与 CPU 进行推理,降低延迟,提高吞吐!
|
50 |
+
|
51 |
+
⚙️ **接口调用,灵活多样**:提供多种使用模型的接口,包括 OpenAI 兼容的 RESTful API(包括 Function Calling),RPC,命令行,web UI 等等。方便模型的管理与交互。
|
52 |
+
|
53 |
+
🌐 **集群计算,分布协同**: 支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。
|
54 |
+
|
55 |
+
🔌 **开放生态,无缝对接**: 与流行的三方库无缝对接,包括 [LangChain](https://python.langchain.com/docs/integrations/providers/xinference),[LlamaIndex](https://gpt-index.readthedocs.io/en/stable/examples/llm/XinferenceLocalDeployment.html#i-run-pip-install-xinference-all-in-a-terminal-window),[Dify](https://docs.dify.ai/advanced/model-configuration/xinference),以及 [Chatbox](https://chatboxai.app/)。
|
56 |
+
|
57 |
+
## 为什么选择 Xinference
|
58 |
+
| 功能特点 | Xinference | FastChat | OpenLLM | RayLLM |
|
59 |
+
|-------------------------|------------|----------|---------|--------|
|
60 |
+
| 兼容 OpenAI 的 RESTful API | ✅ | ✅ | ✅ | ✅ |
|
61 |
+
| vLLM 集成 | ✅ | ✅ | ✅ | ✅ |
|
62 |
+
| 更多推理引擎(GGML、TensorRT) | ✅ | ❌ | ✅ | ✅ |
|
63 |
+
| 更多平台支持(CPU、Metal) | ✅ | ✅ | ❌ | ❌ |
|
64 |
+
| 分布式集群部署 | ✅ | ❌ | ❌ | ✅ |
|
65 |
+
| 图像模型(文生图) | ✅ | ✅ | ❌ | ❌ |
|
66 |
+
| 文本嵌入模型 | ✅ | ❌ | ❌ | ❌ |
|
67 |
+
| 多模态模型 | ✅ | ❌ | ❌ | ❌ |
|
68 |
+
| 语音识别模型 | ✅ | ❌ | ❌ | ❌ |
|
69 |
+
| 更多 OpenAI 功能 (函数调用) | ✅ | ❌ | ❌ | ❌ |
|
70 |
+
|
71 |
+
|
72 |
+
## 入门指南
|
73 |
+
|
74 |
+
**在开始之前,请给我们一个星标,这样你就可以在 GitHub 上及时收到每个新版本的通知!**
|
75 |
+
|
76 |
+
* [文档](https://inference.readthedocs.io/zh-cn/latest/index.html)
|
77 |
+
* [内置模型](https://inference.readthedocs.io/zh-cn/latest/models/builtin/index.html)
|
78 |
+
* [自定义模型](https://inference.readthedocs.io/zh-cn/latest/models/custom.html)
|
79 |
+
* [部署文档](https://inference.readthedocs.io/zh-cn/latest/getting_started/using_xinference.html)
|
80 |
+
* [示例和教程](https://inference.readthedocs.io/zh-cn/latest/examples/index.html)
|
81 |
+
|
82 |
+
### Jupyter Notebook
|
83 |
+
|
84 |
+
体验 Xinference 最轻量级的方式是使用我们 [Google Colab 上的 Jupyter Notebook](https://colab.research.google.com/github/xorbitsai/inference/blob/main/examples/Xinference_Quick_Start.ipynb)。
|
85 |
+
|
86 |
+
### Docker
|
87 |
+
|
88 |
+
Nvidia GPU 用户可以使用[Xinference Docker 镜像](https://inference.readthedocs.io/zh-cn/latest/getting_started/using_docker_image.html) 启动 Xinference 服务器。在执行安装命令之前,确保你的系统中已经安装了 [Docker](https://docs.docker.com/get-docker/) 和 [CUDA](https://developer.nvidia.com/cuda-downloads)。
|
89 |
+
|
90 |
+
### 快速开始
|
91 |
+
|
92 |
+
使用 pip 安装 Xinference,操作如下。(更多选项,请参阅[安装页面](https://inference.readthedocs.io/zh-cn/latest/getting_started/installation.html)。)
|
93 |
+
|
94 |
+
```bash
|
95 |
+
pip install "xinference[all]"
|
96 |
+
```
|
97 |
+
|
98 |
+
要启动一个本地的 Xinference 实例,请运行以下命令:
|
99 |
+
|
100 |
+
```bash
|
101 |
+
$ xinference-local
|
102 |
+
```
|
103 |
+
|
104 |
+
一旦 Xinference 运行起来,你可以通过多种方式尝试它:通过网络界面、通过 cURL、通过命令行或通过 Xinference 的 Python 客户端。更多指南,请查看我们的[文档](https://inference.readthedocs.io/zh-cn/latest/getting_started/using_xinference.html#run-xinference-locally)。
|
105 |
+
|
106 |
+
![网络界面](assets/screenshot.png)
|
107 |
+
|
108 |
+
## 参与其中
|
109 |
+
|
110 |
+
| 平台 | 目的 |
|
111 |
+
|------------------------------------------------------------------------------------------------|--------------------------------------------------|
|
112 |
+
| [Github 问题](https://github.com/xorbitsai/inference/issues) | 报告错误和提交功能请求。 |
|
113 |
+
| [Slack](https://join.slack.com/t/xorbitsio/shared_invite/zt-1o3z9ucdh-RbfhbPVpx7prOVdM1CAuxg) | 与其他 Xorbits 用户合作。 |
|
114 |
+
| [Twitter](https://twitter.com/xorbitsio) | 及时了解新功能。 |
|
115 |
+
| [微信社群](https://xorbits.cn/assets/images/wechat_work_qr.png) | 与其他 Xorbits 用户交流。 |
|
116 |
+
| [知乎](https://zhihu.com/org/xorbits) | 了解团队最新的进展。 |
|
117 |
+
|
118 |
+
## 贡献者
|
119 |
+
|
120 |
+
<a href="https://github.com/xorbitsai/inference/graphs/contributors">
|
121 |
+
<img src="https://contrib.rocks/image?repo=xorbitsai/inference" />
|
122 |
+
</a>
|