Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,38 @@
|
|
1 |
---
|
2 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
+
inference: false
|
3 |
+
language:
|
4 |
+
- pt
|
5 |
+
license: other
|
6 |
+
model_creator: 22H
|
7 |
+
model_link: https://huggingface.co/22h/open-cabrita3b
|
8 |
+
model_name: Open Cabrita 3B
|
9 |
+
model_type: llama
|
10 |
+
quantized_by: TheBloke
|
11 |
---
|
12 |
+
|
13 |
+
# Open Cabrita 3B - GGUF
|
14 |
+
- Criador do Modelo: [22h](https://huggingface.co/22h)
|
15 |
+
- Modelo Original: [Open Cabrita 3B](https://huggingface.co/22h/open-cabrita3b)
|
16 |
+
|
17 |
+
## Provided files
|
18 |
+
|
19 |
+
| Nome | Método Quant | Bits | Tamanho | Desc |
|
20 |
+
| ---- | ---- | ---- | ---- | ---- | ----- |
|
21 |
+
|
22 |
+
| [ggml-opencabrita3b-q4_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_0.gguf) | q4_0 | 4 | 1.94 GB | Quantização em 4-bit. |
|
23 |
+
| [ggml-opencabrita3b-q4_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q4_1.gguf) | q4_1 | 4 | 2.14 GB | Quantização em 4-bit. Acurácia maior que q4_0 mas não tão boa quanto q5_0. Inferência mais rápida que os modelos q5. |
|
24 |
+
| [ggml-opencabrita3b-q5_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_0.gguf) | q5_0 | 5 | 2.34 GB | Quantização em 5-bit. Melhor acurácia, maior uso de recursos, inferência mais lenta. |
|
25 |
+
| [ggml-opencabrita3b-q5_1.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q5_1.gguf) | q5_1 | 5 | 2.53 GB | Quantização em 5-bit. Ainda Melhor acurácia, maior uso de recursos, inferência mais lenta. |
|
26 |
+
| [ggml-opencabrita3b-q8_0.gguf](https://huggingface.co/lucianosb/open-cabrita3b-GGUF/blob/main/ggml-opencabrita3b-q8_0.gguf) | q8_0 | 8 | 3.52 GB | Quantização em 8-bit. Quase indistinguível do float16. Usa muitos recursos e é mais lento. |
|
27 |
+
|
28 |
+
**Observação**: os valores de RAM acima não pressupõem descarregamento de GPU. Se as camadas forem descarregadas para a GPU, isso reduzirá o uso de RAM e usará VRAM.
|
29 |
+
|
30 |
+
## Como executar com `llama.cpp`
|
31 |
+
|
32 |
+
Usei o seguinte comando. Ajuste para suas necessidades:
|
33 |
+
|
34 |
+
```
|
35 |
+
./main -m ./models/open-cabrita3b/ggml-opencabrita3b-q5_1.gguf -n 128 -p "Instrução: Escreva um poema sobre Ciência e Tecnologia. Resposta: "
|
36 |
+
```
|
37 |
+
|
38 |
+
Para compreender os parâmetros, veja [a documentação do llama.cpp](https://github.com/ggerganov/llama.cpp/blob/master/examples/main/README.md)
|