File size: 3,152 Bytes
5cee768
 
 
 
 
 
 
 
 
c2af900
 
5cee768
 
 
 
 
 
08c74fe
5cee768
 
 
 
 
a401fd9
5cee768
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b6f5f21
 
 
5cee768
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
---
language:
- pt
license: apache-2.0
library_name: transformers
tags:
- Misral
- Portuguese
- 7b
- f16
- gguf
base_model: mistralai/Mistral-7B-Instruct-v0.2
datasets:
- pablo-moreira/gpt4all-j-prompt-generations-pt
- rhaymison/superset
---

# Mistral portuguese luana 7b f16 GGUF

<p align="center">
  <img src="https://raw.githubusercontent.com/rhaymisonbetini/huggphotos/main/luana7b.webp" width="50%" style="margin-left:'auto' margin-right:'auto' display:'block'"/>
</p>

This GGUF model, derived from the Mixtrla Luana 7b, has been quantized in f16/half. The model was trained with a superset of 200,000 instructions in Portuguese, aiming to help fill the gap in models available in Portuguese. Tuned from the Mistral 7b, this model has been primarily adjusted for instructional tasks.

Remember that verbs are important in your prompt. Tell your model how to act or behave so that you can guide them along the path of their response. 
Important points like these help models (even smaller models like 7b) to perform much better.

```python
!git lfs install
!pip install langchain
!pip install langchain-community langchain-core
!pip install llama-cpp-python

!git clone https://huggingface.co/rhaymison/Mistral-portuguese-luana-7b-f16-gguf

def llamacpp():
    from langchain.llms import LlamaCpp
    from langchain.prompts import PromptTemplate
    from langchain.chains import LLMChain
    
    llm = LlamaCpp(
        model_path="/content/Mistral-portuguese-luana-7b-f16-gguf.gguf",
        n_gpu_layers=40,
        n_batch=512,
        verbose=True,
    )
    
    template = """<s>[INST] Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto.
    Escreva uma resposta que complete adequadamente o pedido.
    ### {question}
    [/INST]"""

    prompt = PromptTemplate(template=template, input_variables=["question"])
    
    llm_chain = LLMChain(prompt=prompt, llm=llm)
    
    question = "instrução: aja como um professor de matemática e me explique porque 2 + 2 = 4?"
    response = llm_chain.run({"question": question})
    print(response)

```
Output:
```text
Como professor de matemática, posso explicar que 2 + 2 = 4 é uma regra fundamental na matemática. 
Essa equação segue as propriedades da adição e de equivalência, como o princípio da idempotência (que diz que um elemento ou operador não altera nada se repetir), entre outras regras.
Assim, a equação 2 + 2 = 4 segue as propriedades fundamentais da adição na matemática, e é uma regra básica que toda criança deve aprender.  
```

### Comments

Any idea, help or report will always be welcome.

email: [email protected]

 <div style="display:flex; flex-direction:row; justify-content:left">
    <a href="https://www.linkedin.com/in/rhaymison-cristian-betini-2b3016175/" target="_blank">
    <img src="https://img.shields.io/badge/LinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white">
  </a>
  <a href="https://github.com/rhaymisonbetini" target="_blank">
    <img src="https://img.shields.io/badge/GitHub-100000?style=for-the-badge&logo=github&logoColor=white">
  </a>
 </div>