aixsatoshi's picture
Update README.md
75966fc verified
---
license: apache-2.0
datasets:
- aixsatoshi/cosmopedia-japanese-20k
language:
- ja
- en
---
**目的**
高性能なMixtral8x7B-instructを日本語で使用するためのLoraです。
今回cosmopediaを日本語翻訳したデータ20kで学習しました。
https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k
cosmopediaは、Mixtralで生成されたデータであり、Mixtralの英語機能で得られる知識、論理が凝縮されています。
このデータで学習することで、モデル本来の性能を日本語で引き出すことを目的としました。
**性能**
前回のcalm2生成の合成データセットでチューニングよりも実際の体感性能がよいように感じます。
https://huggingface.co/aixsatoshi/Mixtral-8x7B-ja-Lora-sft-ChatbotArenaJAcalm2
**Limitation**
Lora学習であり限界はあります。不自然な日本語が出現することがあります。
日本語で継続事前学習したほうが、高品質な次token予測ができるようになると思います。