Update README.md
Browse files
README.md
CHANGED
@@ -19,13 +19,9 @@ GITHUB_ACTIONS=true pip install auto-gptq
|
|
19 |
from transformers import AutoTokenizer
|
20 |
from auto_gptq import AutoGPTQForCausalLM
|
21 |
|
22 |
-
device = "cuda:0"
|
23 |
-
quantized_model_dir = "saiga2-13b-4bit"
|
24 |
-
tokenizer = AutoTokenizer.from_pretrained(quantized_model_dir, use_fast=True)
|
25 |
-
model = AutoGPTQForCausalLM.from_quantized(quantized_model_dir, device=device)
|
26 |
|
27 |
-
def generate_answer(model, tokenizer, request: str):
|
28 |
-
s = f"system\n{
|
29 |
f"<s>user\n{request}</s>\n" + \
|
30 |
f"<s>bot\n"
|
31 |
request_tokens = tokenizer(s, return_tensors="pt")
|
@@ -40,22 +36,20 @@ def generate_answer(model, tokenizer, request: str):
|
|
40 |
no_repeat_ngram_size=15,
|
41 |
max_new_tokens=1536,
|
42 |
pad_token_id=tokenizer.eos_token_id)[0]
|
43 |
-
print(request)
|
44 |
answer_tokens = answer_tokens[len(request_tokens[0]):-1]
|
45 |
answer = tokenizer.decode(answer_tokens).strip()
|
46 |
-
print(answer)
|
47 |
return answer
|
48 |
|
49 |
-
|
|
|
50 |
system_prompt = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
|
51 |
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True)
|
52 |
-
model = AutoGPTQForCausalLM.from_quantized(model_name, device=
|
53 |
model.eval()
|
54 |
|
55 |
user_text = "Сочини стих, который начинается словами: Буря мглою небо кроет"
|
56 |
-
answer_text = generate_answer(model, tokenizer, user_text)
|
57 |
print(answer_text)
|
58 |
-
|
59 |
```
|
60 |
# Original model: [saiga2-13B-lora](https://huggingface.co/IlyaGusev/saiga2_13b_lora)
|
61 |
Модель ассистента на основе LLaMA2 дообученная на русскоязычных наборах. Модель имеет 13 млрд. параметров.
|
|
|
19 |
from transformers import AutoTokenizer
|
20 |
from auto_gptq import AutoGPTQForCausalLM
|
21 |
|
|
|
|
|
|
|
|
|
22 |
|
23 |
+
def generate_answer(model, tokenizer, request: str, system_prompt: str):
|
24 |
+
s = f"system\n{system_prompt}</s>\n" + \
|
25 |
f"<s>user\n{request}</s>\n" + \
|
26 |
f"<s>bot\n"
|
27 |
request_tokens = tokenizer(s, return_tensors="pt")
|
|
|
36 |
no_repeat_ngram_size=15,
|
37 |
max_new_tokens=1536,
|
38 |
pad_token_id=tokenizer.eos_token_id)[0]
|
|
|
39 |
answer_tokens = answer_tokens[len(request_tokens[0]):-1]
|
40 |
answer = tokenizer.decode(answer_tokens).strip()
|
|
|
41 |
return answer
|
42 |
|
43 |
+
|
44 |
+
model_name = "saiga2-13b-4bit"
|
45 |
system_prompt = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
|
46 |
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True)
|
47 |
+
model = AutoGPTQForCausalLM.from_quantized(model_name, device="cuda:0")
|
48 |
model.eval()
|
49 |
|
50 |
user_text = "Сочини стих, который начинается словами: Буря мглою небо кроет"
|
51 |
+
answer_text = generate_answer(model, tokenizer, user_text, system_prompt)
|
52 |
print(answer_text)
|
|
|
53 |
```
|
54 |
# Original model: [saiga2-13B-lora](https://huggingface.co/IlyaGusev/saiga2_13b_lora)
|
55 |
Модель ассистента на основе LLaMA2 дообученная на русскоязычных наборах. Модель имеет 13 млрд. параметров.
|