grapevine-AI commited on
Commit
a5c874d
1 Parent(s): 196b8a3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +35 -3
README.md CHANGED
@@ -1,3 +1,35 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+ # What is this?
5
+ [Qwen2.5-32B-Instructの公式GGUF](https://huggingface.co/Qwen/Qwen2.5-32B-Instruct-GGUF)を日本語imatrixで量子化したものです。<br>
6
+ なお、モデル本来のコンテキスト長は131072となっていますが、32768以降の位置エンコーディングが特殊なため、**32768トークンを超える文章では正常に機能しない恐れがあります。**<br>
7
+ よって、(メモリの占有を防ぐという意味でも)`-c`**オプションで適当なコンテキスト長に制限することを強く推奨します。**
8
+
9
+ # imatrix dataset
10
+ 日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
11
+ なお、公式配布されているGGUFにはBF16やFP32が存在しなかったため、一連の作業はQ8_0量子化モデルで行いました。<br>
12
+ (imatrix計算時だけでなく、量子化時も`--allow-requantize`オプションでQ8からの再量子化を許容しています)
13
+ ```
14
+ .\llama-quantize.exe --allow-requantize --imatrix .\imatrix.dat "F:\Users\Public\Downloads\models\qwen2.5-32b-instruct-q8_0.gguf" IQ4_XS
15
+ ```
16
+
17
+ # Chat template
18
+ ```
19
+ <|im_start|>system
20
+ ここにSystem Promptを書きます。<|im_end|>
21
+ <|im_start|>user
22
+ ここにMessageを書きます。<|im_end|>
23
+ <|im_start|>assistant
24
+
25
+
26
+ ```
27
+
28
+ # Environment
29
+ Windows版llama.cpp-b3621およびllama.cpp-b3472同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
30
+
31
+ # License
32
+ Apache 2.0
33
+
34
+ # Developer
35
+ Alibaba Cloud