Edit model card

RuadaptQwen2.5-32B-instruct-4-bit-AWQ-GGUF

Описание

Эта модель представляет собой квантизированную версию RuadaptQwen2.5-32B-instruct, выполненную с использованием Activation-aware Weight Quantization (AWQ) с 6-битной точностью, а затем экспортированную в формат GGUF.

Конфигурация квантизации

{
  "zero_point": true,
  "q_group_size": 128,
  "w_bit": 6,
  "version": "GEMM"
}

Шаги для экспорта в GGUF:

  1. AWQ квантизация: Вычисляются масштабы (scales) и применяются к модели.
  2. Сохранение модели в формате FP16: Весовые параметры сохраняются без полной квантизации.
  3. Преобразование в GGUF: Используется convert.py для преобразования весов из формата HuggingFace FP16 в GGUF FP16.
  4. Квантизация GGUF: Применяется финальная квантизация в формате GGUF (например, 4-битная) для достижения реального сжатия.
Downloads last month
102
GGUF
Model size
32.7B params
Architecture
qwen2

4-bit

Inference Examples
Unable to determine this model's library. Check the docs .

Model tree for pomelk1n/RuadaptQwen2.5-32B-instruct-4-bit-AWQ-GGUF

Quantized
(3)
this model

Dataset used to train pomelk1n/RuadaptQwen2.5-32B-instruct-4-bit-AWQ-GGUF