What is this?
Qwen2.5-32B-Instructの公式GGUFを日本語imatrixで量子化したものです。
なお、モデル本来のコンテキスト長は131072となっていますが、32768以降の位置エンコーディングが特殊なため、32768トークンを超える文章では正常に機能しない恐れがあります。
よって、(メモリの占有を防ぐという意味でも)-c
オプションで適当なコンテキスト長に制限することを強く推奨します。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、公式配布されているGGUFにはBF16やFP32が存在しなかったため、一連の作業はQ8_0量子化モデルで行いました。
(imatrix計算時だけでなく、量子化時も--allow-requantize
オプションでQ8からの再量子化を許容しています)
.\llama-quantize.exe --allow-requantize --imatrix .\imatrix.dat "F:\Users\Public\Downloads\models\qwen2.5-32b-instruct-q8_0.gguf" Q4_K_M
Chat template
<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant
Environment
Windows版llama.cpp-b3621を使用して量子化作業を実施しました。
License
Apache 2.0
Developer
Alibaba Cloud
- Downloads last month
- 228