Update README.md
Browse files
README.md
CHANGED
@@ -13,6 +13,8 @@ inference: false
|
|
13 |
- Main Page:[Fengshenbang](https://fengshenbang-lm.com/)
|
14 |
- Github: [Fengshenbang-LM](https://github.com/IDEA-CCNL/Fengshenbang-LM)
|
15 |
|
|
|
|
|
16 |
# 姜子牙系列模型
|
17 |
|
18 |
- [Ziya-LLaMA-13B-v1](https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1)
|
@@ -89,7 +91,7 @@ We implemented the HFT training process on an internally developed framework, wh
|
|
89 |
|
90 |
<img src="https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1/resolve/main/pk.png" width=1000 height=600>
|
91 |
|
92 |
-
## 使用 Usage
|
93 |
|
94 |
由于LLaMA权重的许可限制,该模型不能用于商业用途,请严格遵守LLaMA的使用政策。考虑到LLaMA权重的许可证限制,我们无法直接发布完整的模型权重。因此,我们使用了[FastChat开源工具](https://github.com/lm-sys/FastChat/blob/main/fastchat/model/apply_delta.py)作为基础,并对其进行了进一步的优化。我们计算并发布了Ziya-LLaMA-13B-v1权重与原始LLaMA权重之间的差值。用户可以按照以下步骤操作以获得Ziya-LLaMA-13B-v1完整权重,具体步骤如下:
|
95 |
|
|
|
13 |
- Main Page:[Fengshenbang](https://fengshenbang-lm.com/)
|
14 |
- Github: [Fengshenbang-LM](https://github.com/IDEA-CCNL/Fengshenbang-LM)
|
15 |
|
16 |
+
(LLaMA权重的许可证限制,我们无法直接发布完整的模型权重,用户需要参考[使用说明](#jump)进行合并)
|
17 |
+
|
18 |
# 姜子牙系列模型
|
19 |
|
20 |
- [Ziya-LLaMA-13B-v1](https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1)
|
|
|
91 |
|
92 |
<img src="https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1/resolve/main/pk.png" width=1000 height=600>
|
93 |
|
94 |
+
## <span id="jump"> 使用 Usage </span>
|
95 |
|
96 |
由于LLaMA权重的许可限制,该模型不能用于商业用途,请严格遵守LLaMA的使用政策。考虑到LLaMA权重的许可证限制,我们无法直接发布完整的模型权重。因此,我们使用了[FastChat开源工具](https://github.com/lm-sys/FastChat/blob/main/fastchat/model/apply_delta.py)作为基础,并对其进行了进一步的优化。我们计算并发布了Ziya-LLaMA-13B-v1权重与原始LLaMA权重之间的差值。用户可以按照以下步骤操作以获得Ziya-LLaMA-13B-v1完整权重,具体步骤如下:
|
97 |
|