Spaces:
Running
Running
title: README | |
emoji: 🐢 | |
colorFrom: green | |
colorTo: red | |
sdk: static | |
pinned: false | |
# Llama中文社区 | |
## 🚀 社区地址: | |
Github:[**Llama2-Chinese**](https://github.com/FlagAlpha/Llama2-Chinese) | |
在线体验链接:[**llama.family**](https://llama.family/) | |
## 🔥 社区介绍 | |
欢迎来到Llama中文社区! | |
我们是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。 | |
**基于大规模中文数据,从预训练开始对Llama2模型进行中文能力的持续迭代升级**。 | |
我们热忱欢迎对大模型LLM充满热情的开发者和研究者加入我们的行列。 | |
## 🐼 社区资源 | |
- Llama2在线体验链接[**llama.family**](https://llama.family/),同时包含Meta原版和中文微调版本! | |
- Llama2 Chat模型的[中文问答能力评测](https://github.com/FlagAlpha/Llama2-Chinese/tree/main#-%E6%A8%A1%E5%9E%8B%E8%AF%84%E6%B5%8B)! | |
- [社区飞书知识库](https://chinesellama.feishu.cn/wiki/space/7257824476874768388?ccm_open_type=lark_wiki_spaceLink),欢迎大家一起共建! | |
## 🎯 Meta官方对于[Llama2](https://ai.meta.com/llama)的介绍 | |
自从Meta公司发布第一代LLaMA模型以来,羊驼模型家族繁荣发展。 | |
近期Meta发布了Llama2版本,开源可商用,在模型和效果上有了重大更新。 | |
Llama2总共公布了7B、13B和70B三种参数大小的模型。 | |
相比于LLaMA,Llama2的训练数据达到了2万亿token,上下文长度也由之前的2048升级到4096,可以理解和生成更长的文本。 | |
Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。 | |
# Atom大模型 | |
为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。** | |
**原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。** | |
**目前,社区提供完全开源可商用的Atom-7B模型,并将持续更新。** | |