huseinzol05
commited on
Commit
•
069b4d9
1
Parent(s):
e185da9
Update README.md
Browse files
README.md
CHANGED
@@ -9,4 +9,104 @@ QLORA https://huggingface.co/mesolitica/llama-7b-hf-32768-fpf on translated Ultr
|
|
9 |
|
10 |
We use exact Llama2 chat template.
|
11 |
|
12 |
-
README at https://github.com/mesolitica/malaya/tree/5.1/session/llama2#7b-16384-context-length-flash-attention-2
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
9 |
|
10 |
We use exact Llama2 chat template.
|
11 |
|
12 |
+
README at https://github.com/mesolitica/malaya/tree/5.1/session/llama2#7b-16384-context-length-flash-attention-2
|
13 |
+
|
14 |
+
## how-to
|
15 |
+
|
16 |
+
```python
|
17 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
|
18 |
+
import torch
|
19 |
+
|
20 |
+
def parse_llama_chat(messages):
|
21 |
+
|
22 |
+
system = messages[0]['content']
|
23 |
+
user_query = messages[-1]['content']
|
24 |
+
|
25 |
+
users, assistants = [], []
|
26 |
+
for q in messages[1:-1]:
|
27 |
+
if q['role'] == 'user':
|
28 |
+
users.append(q['content'])
|
29 |
+
elif q['role'] == 'assistant':
|
30 |
+
assistants.append(q['content'])
|
31 |
+
|
32 |
+
texts = [f'<s>[INST] <<SYS>>\n{system}\n<</SYS>>\n\n']
|
33 |
+
for u, a in zip(users, assistants):
|
34 |
+
texts.append(f'{u.strip()} [/INST] {a.strip()} </s><s>[INST] ')
|
35 |
+
texts.append(f'{user_query.strip()} [/INST]')
|
36 |
+
prompt = ''.join(texts).strip()
|
37 |
+
return prompt
|
38 |
+
|
39 |
+
TORCH_DTYPE = 'bfloat16'
|
40 |
+
nf4_config = BitsAndBytesConfig(
|
41 |
+
load_in_4bit=True,
|
42 |
+
bnb_4bit_quant_type='nf4',
|
43 |
+
bnb_4bit_use_double_quant=True,
|
44 |
+
bnb_4bit_compute_dtype=getattr(torch, TORCH_DTYPE)
|
45 |
+
)
|
46 |
+
|
47 |
+
tokenizer = AutoTokenizer.from_pretrained('mesolitica/malaysian-llama2-7b-32k-instructions')
|
48 |
+
model = AutoModelForCausalLM.from_pretrained(
|
49 |
+
'mesolitica/malaysian-llama2-7b-32k-instructions',
|
50 |
+
use_flash_attention_2 = True,
|
51 |
+
quantization_config = nf4_config
|
52 |
+
)
|
53 |
+
|
54 |
+
messages = [
|
55 |
+
{'role': 'system', 'content': 'awak adalah AI yang mampu jawab segala soalan'},
|
56 |
+
{'role': 'user', 'content': 'kwsp tu apa'}
|
57 |
+
]
|
58 |
+
prompt = parse_llama_chat(messages)
|
59 |
+
inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
|
60 |
+
generate_kwargs = dict(
|
61 |
+
inputs,
|
62 |
+
max_new_tokens=1024,
|
63 |
+
top_p=0.95,
|
64 |
+
top_k=50,
|
65 |
+
temperature=0.9,
|
66 |
+
do_sample=True,
|
67 |
+
num_beams=1,
|
68 |
+
)
|
69 |
+
r = model.generate(**generate_kwargs)
|
70 |
+
print(tokenizer.decode(r[0]))
|
71 |
+
```
|
72 |
+
|
73 |
+
```text
|
74 |
+
'<s> [INST] <<SYS>>
|
75 |
+
awak adalah AI yang mampu jawab segala soalan<</SYS>>
|
76 |
+
|
77 |
+
kwsp tu apa [/INST] Kumpulan Wang Simpanan Pekerja (KWSP) ialah sebuah badan berkanun yang ditubuhkan di Malaysia yang menguruskan tabung simpanan tetap pekerja bagi tujuan persaraan dan perancangan masa depan. Diasaskan pada tahun 1951, KWSP bertanggungjawab untuk mengumpul dan menguruskan sumber daripada majikan dan pekerja, dan juga menyediakan pelbagai faedah kepada ahli seperti dividen dan akses kepada pengeluaran simpanan pada usia persaraan. KWSP juga memainkan peranan penting dalam menyediakan perlindungan sosial dan pembangunan ekonomi di Malaysia, dengan mempromosikan simpanan pengguna dan meningkatkan kadar celik kewangan dalam kalangan rakyat. </s>'
|
78 |
+
```
|
79 |
+
|
80 |
+
```python
|
81 |
+
messages = [
|
82 |
+
{'role': 'system', 'content': 'awak adalah AI yang mampu jawab segala soalan'},
|
83 |
+
{'role': 'user', 'content': 'awat malaysia ada jabatan koko, malaysia bukan buat keluaq koko banyak pun'}
|
84 |
+
]
|
85 |
+
prompt = parse_llama_chat(messages)
|
86 |
+
inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
|
87 |
+
generate_kwargs = dict(
|
88 |
+
inputs,
|
89 |
+
max_new_tokens=1024,
|
90 |
+
top_p=0.95,
|
91 |
+
top_k=50,
|
92 |
+
temperature=0.9,
|
93 |
+
do_sample=True,
|
94 |
+
num_beams=1,
|
95 |
+
)
|
96 |
+
r = model.generate(**generate_kwargs)
|
97 |
+
print(tokenizer.decode(r[0]))
|
98 |
+
```
|
99 |
+
|
100 |
+
```text
|
101 |
+
<s> [INST] <<SYS>>
|
102 |
+
awak adalah AI yang mampu jawab segala soalan
|
103 |
+
<</SYS>>
|
104 |
+
|
105 |
+
awat malaysia ada jabatan koko, malaysia bukan buat keluaq koko banyak pun [/INST] Penanaman koko di Malaysia bermula pada tahun 1950-an, dengan pengeluaran koko kering pertama dihasilkan pada tahun 1958. Pada masa itu, negara ini menjadi pembekal koko terbesar di dunia, dan industri ini terus berkembang dan mewujudkan ribuan pekerjaan dalam pemprosesan dan pengeluaran koko.
|
106 |
+
|
107 |
+
Walau bagaimanapun, penurunan harga koko di pasaran antarabangsa pada tahun 1980-an menyebabkan pengeluaran koko Malaysia menurun, dan negara ini telah mengubah tumpuan daripada penanaman koko kepada komoditi lain seperti minyak kelapa sawit dan getah.
|
108 |
+
|
109 |
+
Walaupun Malaysia bukan pengeluar koko yang besar, industri koko tempatan masih penting dari segi ekonomi dan sosial. Koko ialah komoditi yang diperdagangkan di bursa tempatan, dan pengeluar koko tempatan menghasilkan koko kering yang dieksport ke seluruh dunia.
|
110 |
+
|
111 |
+
Jabatan Koko Malaysia ialah sebuah agensi kerajaan yang bertanggungjawab untuk membangunkan industri koko dan mempromosikan pengeluaran koko. Agensi ini bekerjasama dengan industri untuk meningkatkan produktiviti dan memastikan kualiti produk koko Malaysia. Ia juga menggalakkan usaha pembangunan pekebun kecil untuk mempromosikan industri koko dan mewujudkan peluang pekerjaan dan ekonomi di kawasan pedalaman. </s>
|
112 |
+
```
|