Spaces:
Running
Running
File size: 2,013 Bytes
ce41260 0121f81 ce41260 0121f81 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 |
---
title: README
emoji: 🐢
colorFrom: green
colorTo: red
sdk: static
pinned: false
---
# Llama中文社区
## 🚀 社区地址:
Github:[**Llama2-Chinese**](https://github.com/FlagAlpha/Llama2-Chinese)
在线体验链接:[**llama.family**](https://llama.family/)
## 🔥 社区介绍
欢迎来到Llama中文社区!
我们是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。
**基于大规模中文数据,从预训练开始对Llama2模型进行中文能力的持续迭代升级**。
我们热忱欢迎对大模型LLM充满热情的开发者和研究者加入我们的行列。
## 🐼 社区资源
- Llama2在线体验链接[**llama.family**](https://llama.family/),同时包含Meta原版和中文微调版本!
- Llama2 Chat模型的[中文问答能力评测](https://github.com/FlagAlpha/Llama2-Chinese/tree/main#-%E6%A8%A1%E5%9E%8B%E8%AF%84%E6%B5%8B)!
- [社区飞书知识库](https://chinesellama.feishu.cn/wiki/space/7257824476874768388?ccm_open_type=lark_wiki_spaceLink),欢迎大家一起共建!
## 🎯 Meta官方对于[Llama2](https://ai.meta.com/llama)的介绍
自从Meta公司发布第一代LLaMA模型以来,羊驼模型家族繁荣发展。
近期Meta发布了Llama2版本,开源可商用,在模型和效果上有了重大更新。
Llama2总共公布了7B、13B和70B三种参数大小的模型。
相比于LLaMA,Llama2的训练数据达到了2万亿token,上下文长度也由之前的2048升级到4096,可以理解和生成更长的文本。
Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。
# Atom大模型
为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。**
**原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。**
**目前,社区提供完全开源可商用的Atom-7B模型,并将持续更新。**
|