Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
base_model:
|
3 |
+
- THUDM/glm-4-voice-9b
|
4 |
+
---
|
5 |
+
# GLM-4-Voice-9B (INT4 Quantized)
|
6 |
+
|
7 |
+
## 模型简介
|
8 |
+
GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够根据用户的指令改变语音的情感、语调、语速、方言等属性。
|
9 |
+
本仓库是是GLM-4-Voice-9B经过INT4量化的版本。经过优化后,显存需求显著降低,仅需12GB显存即可运行。经过测试,该模型可在NVIDIA GeForce RTX 3060 12GB显卡上流畅运行。
|
10 |
+
|
11 |
+
## 使用教程
|
12 |
+
|
13 |
+
### 创建虚拟环境
|
14 |
+
首先,确保使用Python 3.10,创建虚拟环境:
|
15 |
+
```bash
|
16 |
+
# no support for python=3.8/3.9/3.12
|
17 |
+
conda create -n GLM-4-Voice python=3.10
|
18 |
+
```
|
19 |
+
|
20 |
+
### 激活虚拟环境并克隆模型
|
21 |
+
激活虚拟环境后,克隆模型和代码:
|
22 |
+
```bash
|
23 |
+
conda activate GLM-4-Voice
|
24 |
+
git clone https://huggingface.co/cydxg/glm-4-voice-9b-int4
|
25 |
+
```
|
26 |
+
对于中国大陆用户,可以使用以下命令进行克隆:
|
27 |
+
```bash
|
28 |
+
git clone https://hf-mirror.com/cydxg/glm-4-voice-9b-int4
|
29 |
+
```
|
30 |
+
|
31 |
+
### 安装依赖
|
32 |
+
进入模型目录并安装所需依赖:
|
33 |
+
```bash
|
34 |
+
cd glm-4-voice-9b-int4
|
35 |
+
pip install -r requirements.txt
|
36 |
+
# 根据自己的CUDA版本选择torch
|
37 |
+
conda install pytorch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1 pytorch-cuda=12.4 -c pytorch -c nvidia
|
38 |
+
```
|
39 |
+
|
40 |
+
### 启动模型服务
|
41 |
+
首先启动模型服务:
|
42 |
+
```bash
|
43 |
+
python model_server.py
|
44 |
+
```
|
45 |
+
|
46 |
+
### 运行网页Demo
|
47 |
+
接着运行网页Demo以访问模型:
|
48 |
+
```bash
|
49 |
+
python web_demo.py
|
50 |
+
```
|
51 |
+
即可通过访问 `http://localhost:8888` 来使用模型。
|