Update README.md
Browse files
README.md
CHANGED
@@ -40,9 +40,18 @@ Llama2总共公布了7B、13B和70B三种参数大小的模型。
|
|
40 |
|
41 |
Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。
|
42 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
43 |
# Atom大模型
|
44 |
为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。**
|
45 |
|
46 |
**原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。**
|
47 |
|
48 |
-
|
|
|
|
|
|
40 |
|
41 |
Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。
|
42 |
|
43 |
+
## Llama3中文微调模型
|
44 |
+
|
45 |
+
基于Llama3-8B的中文微调模型
|
46 |
+
|
47 |
+
[Llama3-Chinese-8B-Instruct)](https://huggingface.co/FlagAlpha/Llama3-Chinese-8B-Instruct)
|
48 |
+
|
49 |
+
|
50 |
# Atom大模型
|
51 |
为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。**
|
52 |
|
53 |
**原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。**
|
54 |
|
55 |
+
**目前,社区提供完全开源可商用基于的Atom-7B模型,并将持续更新。**
|
56 |
+
|
57 |
+
|