huseinzol05 commited on
Commit
069b4d9
1 Parent(s): e185da9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +101 -1
README.md CHANGED
@@ -9,4 +9,104 @@ QLORA https://huggingface.co/mesolitica/llama-7b-hf-32768-fpf on translated Ultr
9
 
10
  We use exact Llama2 chat template.
11
 
12
- README at https://github.com/mesolitica/malaya/tree/5.1/session/llama2#7b-16384-context-length-flash-attention-2
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
9
 
10
  We use exact Llama2 chat template.
11
 
12
+ README at https://github.com/mesolitica/malaya/tree/5.1/session/llama2#7b-16384-context-length-flash-attention-2
13
+
14
+ ## how-to
15
+
16
+ ```python
17
+ from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
18
+ import torch
19
+
20
+ def parse_llama_chat(messages):
21
+
22
+ system = messages[0]['content']
23
+ user_query = messages[-1]['content']
24
+
25
+ users, assistants = [], []
26
+ for q in messages[1:-1]:
27
+ if q['role'] == 'user':
28
+ users.append(q['content'])
29
+ elif q['role'] == 'assistant':
30
+ assistants.append(q['content'])
31
+
32
+ texts = [f'<s>[INST] <<SYS>>\n{system}\n<</SYS>>\n\n']
33
+ for u, a in zip(users, assistants):
34
+ texts.append(f'{u.strip()} [/INST] {a.strip()} </s><s>[INST] ')
35
+ texts.append(f'{user_query.strip()} [/INST]')
36
+ prompt = ''.join(texts).strip()
37
+ return prompt
38
+
39
+ TORCH_DTYPE = 'bfloat16'
40
+ nf4_config = BitsAndBytesConfig(
41
+ load_in_4bit=True,
42
+ bnb_4bit_quant_type='nf4',
43
+ bnb_4bit_use_double_quant=True,
44
+ bnb_4bit_compute_dtype=getattr(torch, TORCH_DTYPE)
45
+ )
46
+
47
+ tokenizer = AutoTokenizer.from_pretrained('mesolitica/malaysian-llama2-7b-32k-instructions')
48
+ model = AutoModelForCausalLM.from_pretrained(
49
+ 'mesolitica/malaysian-llama2-7b-32k-instructions',
50
+ use_flash_attention_2 = True,
51
+ quantization_config = nf4_config
52
+ )
53
+
54
+ messages = [
55
+ {'role': 'system', 'content': 'awak adalah AI yang mampu jawab segala soalan'},
56
+ {'role': 'user', 'content': 'kwsp tu apa'}
57
+ ]
58
+ prompt = parse_llama_chat(messages)
59
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
60
+ generate_kwargs = dict(
61
+ inputs,
62
+ max_new_tokens=1024,
63
+ top_p=0.95,
64
+ top_k=50,
65
+ temperature=0.9,
66
+ do_sample=True,
67
+ num_beams=1,
68
+ )
69
+ r = model.generate(**generate_kwargs)
70
+ print(tokenizer.decode(r[0]))
71
+ ```
72
+
73
+ ```text
74
+ '<s> [INST] <<SYS>>
75
+ awak adalah AI yang mampu jawab segala soalan<</SYS>>
76
+
77
+ kwsp tu apa [/INST] Kumpulan Wang Simpanan Pekerja (KWSP) ialah sebuah badan berkanun yang ditubuhkan di Malaysia yang menguruskan tabung simpanan tetap pekerja bagi tujuan persaraan dan perancangan masa depan. Diasaskan pada tahun 1951, KWSP bertanggungjawab untuk mengumpul dan menguruskan sumber daripada majikan dan pekerja, dan juga menyediakan pelbagai faedah kepada ahli seperti dividen dan akses kepada pengeluaran simpanan pada usia persaraan. KWSP juga memainkan peranan penting dalam menyediakan perlindungan sosial dan pembangunan ekonomi di Malaysia, dengan mempromosikan simpanan pengguna dan meningkatkan kadar celik kewangan dalam kalangan rakyat. </s>'
78
+ ```
79
+
80
+ ```python
81
+ messages = [
82
+ {'role': 'system', 'content': 'awak adalah AI yang mampu jawab segala soalan'},
83
+ {'role': 'user', 'content': 'awat malaysia ada jabatan koko, malaysia bukan buat keluaq koko banyak pun'}
84
+ ]
85
+ prompt = parse_llama_chat(messages)
86
+ inputs = tokenizer([prompt], return_tensors='pt', add_special_tokens=False).to('cuda')
87
+ generate_kwargs = dict(
88
+ inputs,
89
+ max_new_tokens=1024,
90
+ top_p=0.95,
91
+ top_k=50,
92
+ temperature=0.9,
93
+ do_sample=True,
94
+ num_beams=1,
95
+ )
96
+ r = model.generate(**generate_kwargs)
97
+ print(tokenizer.decode(r[0]))
98
+ ```
99
+
100
+ ```text
101
+ <s> [INST] <<SYS>>
102
+ awak adalah AI yang mampu jawab segala soalan
103
+ <</SYS>>
104
+
105
+ awat malaysia ada jabatan koko, malaysia bukan buat keluaq koko banyak pun [/INST] Penanaman koko di Malaysia bermula pada tahun 1950-an, dengan pengeluaran koko kering pertama dihasilkan pada tahun 1958. Pada masa itu, negara ini menjadi pembekal koko terbesar di dunia, dan industri ini terus berkembang dan mewujudkan ribuan pekerjaan dalam pemprosesan dan pengeluaran koko.
106
+
107
+ Walau bagaimanapun, penurunan harga koko di pasaran antarabangsa pada tahun 1980-an menyebabkan pengeluaran koko Malaysia menurun, dan negara ini telah mengubah tumpuan daripada penanaman koko kepada komoditi lain seperti minyak kelapa sawit dan getah.
108
+
109
+ Walaupun Malaysia bukan pengeluar koko yang besar, industri koko tempatan masih penting dari segi ekonomi dan sosial. Koko ialah komoditi yang diperdagangkan di bursa tempatan, dan pengeluar koko tempatan menghasilkan koko kering yang dieksport ke seluruh dunia.
110
+
111
+ Jabatan Koko Malaysia ialah sebuah agensi kerajaan yang bertanggungjawab untuk membangunkan industri koko dan mempromosikan pengeluaran koko. Agensi ini bekerjasama dengan industri untuk meningkatkan produktiviti dan memastikan kualiti produk koko Malaysia. Ia juga menggalakkan usaha pembangunan pekebun kecil untuk mempromosikan industri koko dan mewujudkan peluang pekerjaan dan ekonomi di kawasan pedalaman. </s>
112
+ ```