|
--- |
|
title: README |
|
emoji: 🐢 |
|
colorFrom: green |
|
colorTo: red |
|
sdk: static |
|
pinned: false |
|
--- |
|
|
|
# Llama中文社区 |
|
|
|
## 🚀 社区地址: |
|
|
|
Github:[**Llama-Chinese**](https://github.com/LlamaFamily/Llama-Chinese) |
|
|
|
在线体验链接:[**llama.family**](https://llama.family/) |
|
|
|
## 🔥 社区介绍 |
|
欢迎来到Llama中文社区! |
|
|
|
我们是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。 |
|
|
|
**基于大规模中文数据,从预训练开始对Llama模型进行中文能力的持续迭代升级**。 |
|
|
|
我们热忱欢迎对大模型LLM充满热情的开发者和研究者加入我们的行列。 |
|
|
|
## 🐼 社区资源 |
|
- Llama3、LLama2在线体验链接[**llama.family**](https://llama.family/),同时包含Meta原版和中文微调版本! |
|
- Llama2 Chat模型的[中文问答能力评测](https://github.com/LlamaFamily/Llama-Chinese/tree/main#-%E6%A8%A1%E5%9E%8B%E8%AF%84%E6%B5%8B)! |
|
- [社区飞书知识库](https://chinesellama.feishu.cn/wiki/space/7257824476874768388?ccm_open_type=lark_wiki_spaceLink),欢迎大家一起共建! |
|
|
|
## 🎯 Meta官方对于[Llama2](https://ai.meta.com/llama)的介绍 |
|
自从Meta公司发布第一代LLaMA模型以来,羊驼模型家族繁荣发展。 |
|
|
|
近期Meta发布了Llama2版本,开源可商用,在模型和效果上有了重大更新。 |
|
|
|
Llama2总共公布了7B、13B和70B三种参数大小的模型。 |
|
|
|
相比于LLaMA,Llama2的训练数据达到了2万亿token,上下文长度也由之前的2048升级到4096,可以理解和生成更长的文本。 |
|
|
|
Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。 |
|
|
|
## Llama3中文微调模型 |
|
|
|
基于Llama3-8B的中文微调模型 |
|
|
|
[Llama3-Chinese-8B-Instruct)](https://huggingface.co/FlagAlpha/Llama3-Chinese-8B-Instruct) |
|
|
|
|
|
# Atom大模型 |
|
为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。** |
|
|
|
**原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。** |
|
|
|
**目前,社区提供完全开源可商用基于的Atom-7B模型,并将持续更新。** |
|
|
|
|
|
|