Update README.md
Browse files
README.md
CHANGED
@@ -7,6 +7,7 @@ language:
|
|
7 |
pipeline_tag: text-generation
|
8 |
---
|
9 |
此模型由[atom-7b-chat](https://huggingface.co/FlagAlpha/Atom-7B-Chat)经过lora微调(只训练k_proj、q_proj、v_proj、o_proj、norm)得到,通过线性位置插值,将文本长度从4k扩展到16k,可以完成多文档检索、论文总结等任务。\
|
|
|
10 |
此版本为v1,初步具有长对话能力,但回答错误依然较多,可能是因为微调数据质量低([yuyijiong/LongData-instruction-chinese](https://huggingface.co/datasets/yuyijiong/LongData-instruction-chinese) 都是谷歌翻译过来的英文数据)。未来将会持续改进,改进版本很快推出。\
|
11 |
使用方法:
|
12 |
```python
|
|
|
7 |
pipeline_tag: text-generation
|
8 |
---
|
9 |
此模型由[atom-7b-chat](https://huggingface.co/FlagAlpha/Atom-7B-Chat)经过lora微调(只训练k_proj、q_proj、v_proj、o_proj、norm)得到,通过线性位置插值,将文本长度从4k扩展到16k,可以完成多文档检索、论文总结等任务。\
|
10 |
+
作为对比,原模型如果直接进行线性位置插值而不进行微调,在长度大于8k时几乎没有正常对话能力。\
|
11 |
此版本为v1,初步具有长对话能力,但回答错误依然较多,可能是因为微调数据质量低([yuyijiong/LongData-instruction-chinese](https://huggingface.co/datasets/yuyijiong/LongData-instruction-chinese) 都是谷歌翻译过来的英文数据)。未来将会持续改进,改进版本很快推出。\
|
12 |
使用方法:
|
13 |
```python
|