gurgutan commited on
Commit
5edaed0
1 Parent(s): 9e92847

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -12
README.md CHANGED
@@ -19,13 +19,9 @@ GITHUB_ACTIONS=true pip install auto-gptq
19
  from transformers import AutoTokenizer
20
  from auto_gptq import AutoGPTQForCausalLM
21
 
22
- device = "cuda:0"
23
- quantized_model_dir = "saiga2-13b-4bit"
24
- tokenizer = AutoTokenizer.from_pretrained(quantized_model_dir, use_fast=True)
25
- model = AutoGPTQForCausalLM.from_quantized(quantized_model_dir, device=device)
26
 
27
- def generate_answer(model, tokenizer, request: str):
28
- s = f"system\n{config.system_prompt}</s>\n" + \
29
  f"<s>user\n{request}</s>\n" + \
30
  f"<s>bot\n"
31
  request_tokens = tokenizer(s, return_tensors="pt")
@@ -40,22 +36,20 @@ def generate_answer(model, tokenizer, request: str):
40
  no_repeat_ngram_size=15,
41
  max_new_tokens=1536,
42
  pad_token_id=tokenizer.eos_token_id)[0]
43
- print(request)
44
  answer_tokens = answer_tokens[len(request_tokens[0]):-1]
45
  answer = tokenizer.decode(answer_tokens).strip()
46
- print(answer)
47
  return answer
48
 
49
- model_name = "gurgutan/saiga2-13b-4bit"
 
50
  system_prompt = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
51
  tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True)
52
- model = AutoGPTQForCausalLM.from_quantized(model_name, device=device)
53
  model.eval()
54
 
55
  user_text = "Сочини стих, который начинается словами: Буря мглою небо кроет"
56
- answer_text = generate_answer(model, tokenizer, user_text)
57
  print(answer_text)
58
-
59
  ```
60
  # Original model: [saiga2-13B-lora](https://huggingface.co/IlyaGusev/saiga2_13b_lora)
61
  Модель ассистента на основе LLaMA2 дообученная на русскоязычных наборах. Модель имеет 13 млрд. параметров.
 
19
  from transformers import AutoTokenizer
20
  from auto_gptq import AutoGPTQForCausalLM
21
 
 
 
 
 
22
 
23
+ def generate_answer(model, tokenizer, request: str, system_prompt: str):
24
+ s = f"system\n{system_prompt}</s>\n" + \
25
  f"<s>user\n{request}</s>\n" + \
26
  f"<s>bot\n"
27
  request_tokens = tokenizer(s, return_tensors="pt")
 
36
  no_repeat_ngram_size=15,
37
  max_new_tokens=1536,
38
  pad_token_id=tokenizer.eos_token_id)[0]
 
39
  answer_tokens = answer_tokens[len(request_tokens[0]):-1]
40
  answer = tokenizer.decode(answer_tokens).strip()
 
41
  return answer
42
 
43
+
44
+ model_name = "saiga2-13b-4bit"
45
  system_prompt = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
46
  tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True)
47
+ model = AutoGPTQForCausalLM.from_quantized(model_name, device="cuda:0")
48
  model.eval()
49
 
50
  user_text = "Сочини стих, который начинается словами: Буря мглою небо кроет"
51
+ answer_text = generate_answer(model, tokenizer, user_text, system_prompt)
52
  print(answer_text)
 
53
  ```
54
  # Original model: [saiga2-13B-lora](https://huggingface.co/IlyaGusev/saiga2_13b_lora)
55
  Модель ассистента на основе LLaMA2 дообученная на русскоязычных наборах. Модель имеет 13 млрд. параметров.