|
--- |
|
license: apache-2.0 |
|
datasets: |
|
- BelleGroup/train_1M_CN |
|
language: |
|
- zh |
|
library_name: transformers |
|
--- |
|
|
|
## 介绍 |
|
1. 模型名称:`xiaoheizi`(`小黑子`),现在国内的大模型起的名字一个比一个厉害,那我们和别人做点不一样的,主打一个随意~ |
|
2. 模型参数量:是一个参数量为`3B`的模型 |
|
3. 模型:模型基于[`dolly_v2_3b`](https://huggingface.co/databricks/dolly-v2-3b)模型,而`dolly_v2_3b`模型本质上就是[`gpt_neox`](https://huggingface.co/models?other=gpt_neox)模型 |
|
4. 数据:基于[`BelleGroup/train_1M_CN`](https://huggingface.co/datasets/BelleGroup/train_1M_CN)数据做的训练 |
|
5. 商用:可以商用 |
|
6. GitHub仓库:本项目的训练和推理代码已经全部开源[https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/chinese_dolly_v2_3b](https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/chinese_dolly_v2_3b) |
|
|
|
## 使用方法 |
|
|
|
### 推理 |
|
|
|
#### step1 |
|
```bash |
|
git clone [email protected]:yuanzhoulvpi2017/zero_nlp.git |
|
|
|
cd chinese_dolly_v2_3b |
|
|
|
``` |
|
|
|
#### step2 |
|
|
|
```python |
|
from transformers import GPTNeoXForCausalLM,AutoTokenizer |
|
from dolly.generate import generate_response,load_model_tokenizer_for_generate |
|
import torch |
|
|
|
|
|
model, tokenizer = load_model_tokenizer_for_generate(pretrained_model_name_or_path="yuanzhoulvpi/xiaoheizi-3b") |
|
|
|
|
|
for i in range(10): |
|
print("*" * 100) |
|
res = generate_response(instruction="列出三个在二十世纪被认为是最伟大的小说之一的书名,以及它们的作者。", model=model,tokenizer=tokenizer) |
|
print(res) |
|
torch.cuda.empty_cache() |
|
|
|
|
|
# **************************************************************************************************** |
|
# - 《致命招若众》 by 黄伟作为一部历史传说学者的作品,创作于 1898 年。 |
|
# - 《讲故事人生》 by 苏珊作为一部历史传说,近年的迈克尔·道尔莎尼的重装作品,创作于1999年。 |
|
# - 《金头银头》 by 洛克菲尔德·迪伊纳作为一部小说、小说之旅、花园小说家之一,创作于1958年。 |
|
|
|
``` |
|
|
|
### 训练 |
|
1. 使用`trainer_dolly.py`文件训练即可 |