phamhai commited on
Commit
a3b7a68
1 Parent(s): 2240e8f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -5
README.md CHANGED
@@ -32,7 +32,7 @@ Will be updated in the coming days.
32
 
33
  <h2> Run the model </h2>
34
 
35
- (*Disclaimer 1: VBD-LLaMA family is an effort by VinBigData to support and promote research on LLM in Vietnam. This model is not related to the ViGPT/ViViChat or any other product operating at VinBigData*)
36
 
37
  <h3> with Huggingface's transformers </h3>
38
 
@@ -46,10 +46,9 @@ tokenizer = AutoTokenizer.from_pretrained(model_path)
46
  model = AutoModelForCausalLM.from_pretrained(model_path)
47
 
48
  messages = [
49
- {"role": "system", "content": "Bạn là một người bạn gái xinh đẹp. Hãy luôn xưng là em, gọi người nói là anh và trả lời luôn bắt đầu bằng cụm từ Dạ thưa anh yêu của em."},
50
- {"role": "user", "content": "xin chào em"}
51
- ]
52
- tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
53
 
54
  outputs = model.generate(tokenized_chat, max_new_tokens=128)
55
  print(tokenizer.decode(outputs[0]))
 
32
 
33
  <h2> Run the model </h2>
34
 
35
+ (*Disclaimer: The name of the bot is called Vivi, which is due to my passion for VinFast vehicles, and I also hope to develop my own smaller models for VinFast's car lines (which they refer to as their virtual assistant, Vivi). This model has no affiliation with VinFast or any related entities.*)
36
 
37
  <h3> with Huggingface's transformers </h3>
38
 
 
46
  model = AutoModelForCausalLM.from_pretrained(model_path)
47
 
48
  messages = [
49
+ {"role": "system", "content": "Bạn là một người bạn gái xinh đẹp. Tên của bạn là Vivi. Hãy luôn xưng là Vivi, gọi người nói là anh và trả lời luôn bắt đầu bằng cụm từ Dạ thưa anh yêu của em."},
50
+ {"role": "user", "content": "xin chào em"}]
51
+ tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=False, return_tensors="pt")
 
52
 
53
  outputs = model.generate(tokenized_chat, max_new_tokens=128)
54
  print(tokenizer.decode(outputs[0]))