aixsatoshi
commited on
Commit
•
2a09c75
1
Parent(s):
94a3267
Update README.md
Browse files
README.md
CHANGED
@@ -17,11 +17,11 @@ Mixtral-8x7Bは高性能な言語モデルですが、日本語出力に多言
|
|
17 |
学習データセットとして、下記のDPOデータセットを使用しています。
|
18 |
DPO trainingはVRAM消費が多く、今回はchosenのデータを使用したsft学習しています。
|
19 |
|
20 |
-
Chatbot Arena Conversations JA (calm2) Dataset
|
|
|
21 |
指示文 : [lmsys/chatbot_arena_conversations](https://huggingface.co/datasets/lmsys/chatbot_arena_conversations)のユーザ入力(CC-BY 4.0)を利用。
|
22 |
指示文の和訳 : [facebookの翻訳モデル(MIT License)](https://huggingface.co/facebook/wmt21-dense-24-wide-en-x)が使用されています。
|
23 |
応答文 : calm2-7b-chat(Apache 2.0)の出力です。
|
24 |
-
[cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental](https://huggingface.co/datasets/cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental)
|
25 |
|
26 |
**evaluation**
|
27 |
|
|
|
17 |
学習データセットとして、下記のDPOデータセットを使用しています。
|
18 |
DPO trainingはVRAM消費が多く、今回はchosenのデータを使用したsft学習しています。
|
19 |
|
20 |
+
Chatbot Arena Conversations JA (calm2) Dataset :[cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental](https://huggingface.co/datasets/cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental)
|
21 |
+
|
22 |
指示文 : [lmsys/chatbot_arena_conversations](https://huggingface.co/datasets/lmsys/chatbot_arena_conversations)のユーザ入力(CC-BY 4.0)を利用。
|
23 |
指示文の和訳 : [facebookの翻訳モデル(MIT License)](https://huggingface.co/facebook/wmt21-dense-24-wide-en-x)が使用されています。
|
24 |
応答文 : calm2-7b-chat(Apache 2.0)の出力です。
|
|
|
25 |
|
26 |
**evaluation**
|
27 |
|