Edit model card

What is this?

Qwen2.5-32B-Instructの公式GGUFを日本語imatrixで量子化したものです。
なお、モデル本来のコンテキスト長は131072となっていますが、32768以降の位置エンコーディングが特殊なため、32768トークンを超える文章では正常に機能しない恐れがあります。
よって、(メモリの占有を防ぐという意味でも)-cオプションで適当なコンテキスト長に制限することを強く推奨します。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、公式配布されているGGUFにはBF16やFP32が存在しなかったため、一連の作業はQ8_0量子化モデルで行いました。
(imatrix計算時だけでなく、量子化時も--allow-requantizeオプションでQ8からの再量子化を許容しています)

.\llama-quantize.exe --allow-requantize --imatrix .\imatrix.dat "F:\Users\Public\Downloads\models\qwen2.5-32b-instruct-q8_0.gguf" Q4_K_M

Chat template

<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant

Environment

Windows版llama.cpp-b3621を使用して量子化作業を実施しました。

License

Apache 2.0

Developer

Alibaba Cloud

Downloads last month
228
GGUF
Model size
32.8B params
Architecture
qwen2

4-bit

5-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .