Edit model card

What is this?

プリンストン大学によるGemma 2 9BのSimPO強化版モデルgemma-2-9b-it-SimPOをGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、imatrixの算出においてはf32精度のモデルを使用しました。これは、本来の数値精度であるbf16でのimatrix計算に現行のCUDA版llama.cppが対応していないためです。

Chat template

<start_of_turn>user
ここにpromptを書きます<end_of_turn>
<start_of_turn>model

Environment

Windows版llama.cpp-b3621およびllama.cpp-b3472同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

gemma license

Developer

Google & princeton-nlp

Downloads last month
403
GGUF
Model size
9.24B params
Architecture
gemma2

4-bit

5-bit

6-bit

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .