Update README.md
Browse files
README.md
CHANGED
@@ -1,6 +1,4 @@
|
|
1 |
---
|
2 |
-
license: apache-2.0
|
3 |
-
---
|
4 |
language:
|
5 |
- zh
|
6 |
- en
|
@@ -17,11 +15,10 @@ tags:
|
|
17 |
- Transformers
|
18 |
license: "apache-2.0"
|
19 |
---
|
20 |
-
|
21 |
-
|
22 |
-
-
|
23 |
-
|
24 |
-
- 经优化目前可以支持无限context,远大于4k、8K、16K......
|
25 |
# ChatGLM-6B RLHF & LoRA Model
|
26 |
|
27 |
ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
|
@@ -58,6 +55,7 @@ for s in sents:
|
|
58 |
response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
|
59 |
print(response)
|
60 |
```
|
|
|
61 |
## 模型测试提示词
|
62 |
### 一、理解能力测试
|
63 |
1、找图片 Temperature 调整到0.85左右成功率较高
|
|
|
1 |
---
|
|
|
|
|
2 |
language:
|
3 |
- zh
|
4 |
- en
|
|
|
15 |
- Transformers
|
16 |
license: "apache-2.0"
|
17 |
---
|
18 |
+
- 协议
|
19 |
+
- 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
|
20 |
+
- 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
|
21 |
+
- 本次训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立完成。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
|
|
|
22 |
# ChatGLM-6B RLHF & LoRA Model
|
23 |
|
24 |
ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
|
|
|
55 |
response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
|
56 |
print(response)
|
57 |
```
|
58 |
+
# 模型能力测试,本次主要测试模型的理解力、分析能力、表达和总结能力,所有测试以实用为准且均为单轮测试,测试中Top P 和 Temperature 均为0.85欢迎大家测试复现,测试地址https://huggingface.co/spaces/fb700/chatglm-fitness-RLHF
|
59 |
## 模型测试提示词
|
60 |
### 一、理解能力测试
|
61 |
1、找图片 Temperature 调整到0.85左右成功率较高
|