Safetensors
aixsatoshi commited on
Commit
2a09c75
1 Parent(s): 94a3267

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -17,11 +17,11 @@ Mixtral-8x7Bは高性能な言語モデルですが、日本語出力に多言
17
  学習データセットとして、下記のDPOデータセットを使用しています。
18
  DPO trainingはVRAM消費が多く、今回はchosenのデータを使用したsft学習しています。
19
 
20
- Chatbot Arena Conversations JA (calm2) Dataset
 
21
  指示文 : [lmsys/chatbot_arena_conversations](https://huggingface.co/datasets/lmsys/chatbot_arena_conversations)のユーザ入力(CC-BY 4.0)を利用。
22
  指示文の和訳 : [facebookの翻訳モデル(MIT License)](https://huggingface.co/facebook/wmt21-dense-24-wide-en-x)が使用されています。
23
  応答文 : calm2-7b-chat(Apache 2.0)の出力です。
24
- [cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental](https://huggingface.co/datasets/cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental)
25
 
26
  **evaluation**
27
 
 
17
  学習データセットとして、下記のDPOデータセットを使用しています。
18
  DPO trainingはVRAM消費が多く、今回はchosenのデータを使用したsft学習しています。
19
 
20
+ Chatbot Arena Conversations JA (calm2) Dataset :[cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental](https://huggingface.co/datasets/cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental)
21
+
22
  指示文 : [lmsys/chatbot_arena_conversations](https://huggingface.co/datasets/lmsys/chatbot_arena_conversations)のユーザ入力(CC-BY 4.0)を利用。
23
  指示文の和訳 : [facebookの翻訳モデル(MIT License)](https://huggingface.co/facebook/wmt21-dense-24-wide-en-x)が使用されています。
24
  応答文 : calm2-7b-chat(Apache 2.0)の出力です。
 
25
 
26
  **evaluation**
27