Spaces:
Runtime error
Runtime error
Create app.py
Browse files
app.py
ADDED
@@ -0,0 +1,40 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
|
2 |
+
|
3 |
+
access_token=os.getenv('MODEL_REPO_ID')
|
4 |
+
model_id = "iGeniusAI/Italia-9B-Instruct-v0.1"
|
5 |
+
|
6 |
+
model = AutoModelForCausalLM.from_pretrained(model_id,token=access_token, trust_remote_code=True)
|
7 |
+
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
8 |
+
|
9 |
+
t_pipeline = pipeline(
|
10 |
+
"text-generation",
|
11 |
+
model=model,
|
12 |
+
tokenizer=tokenizer,
|
13 |
+
device_map="auto",
|
14 |
+
return_full_text=False,
|
15 |
+
top_p = 0.95,
|
16 |
+
top_k = 50
|
17 |
+
)
|
18 |
+
|
19 |
+
SYSTEM_PROMPT = """Il tuo nome è Modello Italia. Tu sei un'intelligenza artificiale, un modello di linguaggio naturale addestrato da iGenius su Leonardo, uno dei supercomputer più potenti al mondo."""
|
20 |
+
TEMPERATURE = 0.3
|
21 |
+
MAX_NEW_TOKENS = 250
|
22 |
+
|
23 |
+
messages = [
|
24 |
+
{"role": "system", "content": SYSTEM_PROMPT},
|
25 |
+
{"role": "user", "content": "Ciao come stai?"},
|
26 |
+
]
|
27 |
+
|
28 |
+
conv_template = tokenizer.apply_chat_template(
|
29 |
+
messages,
|
30 |
+
tokenize=False
|
31 |
+
)
|
32 |
+
|
33 |
+
outputs = t_pipeline(
|
34 |
+
conv_template,
|
35 |
+
max_new_tokens=MAX_NEW_TOKENS,
|
36 |
+
do_sample=True,
|
37 |
+
temperature=TEMPERATURE,
|
38 |
+
num_return_sequences=1,
|
39 |
+
)
|
40 |
+
print(outputs[0]["generated_text"])
|