Update README.md
Browse files
README.md
CHANGED
@@ -10,7 +10,8 @@ datasets:
|
|
10 |
pipeline_tag: text-generation
|
11 |
---
|
12 |
* 2023.12.14更新:发布微调后的Qwen-14b的权重,微调后的模型能适应32k长度(约4万汉字)的中英问答,在多文档问答任务上提升非常显著,超过chatglm3-32k。
|
13 |
-
|
|
|
14 |
# LongBench测试结果
|
15 |
### LongBench的passage_retrieval_zh的评测结果
|
16 |
| 模型 | 得分 (acc) |
|
@@ -22,6 +23,7 @@ pipeline_tag: text-generation
|
|
22 |
| CausalLM-14b | 0.086 |
|
23 |
|
24 |
|
|
|
25 |
|
26 |
# Usage
|
27 |
* 使用此模型时会自动设置 config.use_logn_attn=False、config.use_dynamic_ntk=True,会产生warning,不影响模型使用。
|
@@ -36,6 +38,7 @@ response, history = model.chat(tokenizer, input_text, history=None)
|
|
36 |
|
37 |
print(response)
|
38 |
```
|
|
|
39 |
|
40 |
# 训练过程
|
41 |
### 1.模型结构修改
|
@@ -46,6 +49,7 @@ print(response)
|
|
46 |
### 3.指令微调
|
47 |
* 使用[yuyijiong/Long-Instruction-Chinese](https://huggingface.co/datasets/yuyijiong/Long-Instruction-Chinese)数据,Qlora方法,对Qwen模型进行微调。
|
48 |
|
|
|
49 |
|
50 |
# 问答例子
|
51 |
* 模型支持中文和英文,支持长文本总结、多文档问答、长文本问答、多轮对话等任务。
|
|
|
10 |
pipeline_tag: text-generation
|
11 |
---
|
12 |
* 2023.12.14更新:发布微调后的Qwen-14b的权重,微调后的模型能适应32k长度(约4万汉字)的中英问答,在多文档问答任务上提升非常显著,超过chatglm3-32k。
|
13 |
+
<br>
|
14 |
+
<br>
|
15 |
# LongBench测试结果
|
16 |
### LongBench的passage_retrieval_zh的评测结果
|
17 |
| 模型 | 得分 (acc) |
|
|
|
23 |
| CausalLM-14b | 0.086 |
|
24 |
|
25 |
|
26 |
+
<br>
|
27 |
|
28 |
# Usage
|
29 |
* 使用此模型时会自动设置 config.use_logn_attn=False、config.use_dynamic_ntk=True,会产生warning,不影响模型使用。
|
|
|
38 |
|
39 |
print(response)
|
40 |
```
|
41 |
+
<br>
|
42 |
|
43 |
# 训练过程
|
44 |
### 1.模型结构修改
|
|
|
49 |
### 3.指令微调
|
50 |
* 使用[yuyijiong/Long-Instruction-Chinese](https://huggingface.co/datasets/yuyijiong/Long-Instruction-Chinese)数据,Qlora方法,对Qwen模型进行微调。
|
51 |
|
52 |
+
<br>
|
53 |
|
54 |
# 问答例子
|
55 |
* 模型支持中文和英文,支持长文本总结、多文档问答、长文本问答、多轮对话等任务。
|