File size: 2,013 Bytes
ce41260
 
0121f81
 
 
ce41260
 
 
 
0121f81
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
---
title: README
emoji: 🐢
colorFrom: green
colorTo: red
sdk: static
pinned: false
---

# Llama中文社区

## 🚀 社区地址:

Github:[**Llama2-Chinese**](https://github.com/FlagAlpha/Llama2-Chinese)

在线体验链接:[**llama.family**](https://llama.family/)

## 🔥 社区介绍
欢迎来到Llama中文社区!

我们是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。

**基于大规模中文数据,从预训练开始对Llama2模型进行中文能力的持续迭代升级**。

我们热忱欢迎对大模型LLM充满热情的开发者和研究者加入我们的行列。

## 🐼 社区资源
  - Llama2在线体验链接[**llama.family**](https://llama.family/),同时包含Meta原版和中文微调版本!
  - Llama2 Chat模型的[中文问答能力评测](https://github.com/FlagAlpha/Llama2-Chinese/tree/main#-%E6%A8%A1%E5%9E%8B%E8%AF%84%E6%B5%8B)!
  - [社区飞书知识库](https://chinesellama.feishu.cn/wiki/space/7257824476874768388?ccm_open_type=lark_wiki_spaceLink),欢迎大家一起共建!

## 🎯 Meta官方对于[Llama2](https://ai.meta.com/llama)的介绍
自从Meta公司发布第一代LLaMA模型以来,羊驼模型家族繁荣发展。

近期Meta发布了Llama2版本,开源可商用,在模型和效果上有了重大更新。

Llama2总共公布了7B、13B和70B三种参数大小的模型。

相比于LLaMA,Llama2的训练数据达到了2万亿token,上下文长度也由之前的2048升级到4096,可以理解和生成更长的文本。

Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。      

# Atom大模型
为了区别于原始的Llama2模型,**未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。**

**原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。**

**目前,社区提供完全开源可商用的Atom-7B模型,并将持续更新。**