--- license: apache-2.0 datasets: - aixsatoshi/cosmopedia-japanese-20k language: - ja - en --- **目的** 高性能なMixtral8x7B-instructを日本語で使用するためのLoraです。 今回cosmopediaを日本語翻訳したデータ20kで学習しました。 https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k cosmopediaは、Mixtralで生成されたデータであり、Mixtralの英語機能で得られる知識、論理が凝縮されています。 このデータで学習することで、モデル本来の性能を日本語で引き出すことを目的としました。 **性能** 前回のcalm2生成の合成データセットでチューニングよりも実際の体感性能がよいように感じます。 https://huggingface.co/aixsatoshi/Mixtral-8x7B-ja-Lora-sft-ChatbotArenaJAcalm2 **Limitation** Lora学習であり限界はあります。不自然な日本語が出現することがあります。 日本語で継続事前学習したほうが、高品質な次token予測ができるようになると思います。