cryptocalypse commited on
Commit
90365a3
1 Parent(s): a072676

Update gen.py

Browse files
Files changed (1) hide show
  1. gen.py +5 -5
gen.py CHANGED
@@ -147,7 +147,7 @@ prompt = (
147
  " }\n"
148
  " }\n"
149
  "}\n\n"
150
- "Ahora, genera un JSON similar con eventos anidados, pero cambia los detalles y números para hacer que sea con el input que viene a continuacion, respondiendo solo el JSON: "
151
  )
152
 
153
 
@@ -156,17 +156,17 @@ def generate(event):
156
  prompt_msg = [{'role':'system','content':prompt},{'role': 'user', 'content': event}]
157
  inputs = tokenizer.apply_chat_template(
158
  prompt_msg,
159
- add_generation_prompt=True,
160
  return_tensors='pt'
161
  )
162
 
163
  tokens = model.generate(
164
  inputs.to(model.device),
165
- max_new_tokens=1024,
166
- temperature=0.5,
167
  do_sample=True
168
  )
169
 
170
 
171
  # Imprimir la salida generada
172
- return tokenizer.decode(tokens[0], skip_special_tokens=False)
 
147
  " }\n"
148
  " }\n"
149
  "}\n\n"
150
+ "Ahora, genera un JSON similar con eventos anidados, pero cambia los detalles y números para hacer que sea con el input que viene a continuacion, respondiendo solo el JSON. No muestres el mensaje del sistema del rol system. Contesta solo JSON, el JSON de respuesta.No muestres este mensaje ni el prompt introducido por el usuario. Asegurate en la respuesta que el JSON esta completo y tiene el formato correcto."
151
  )
152
 
153
 
 
156
  prompt_msg = [{'role':'system','content':prompt},{'role': 'user', 'content': event}]
157
  inputs = tokenizer.apply_chat_template(
158
  prompt_msg,
159
+ add_generation_prompt=False,
160
  return_tensors='pt'
161
  )
162
 
163
  tokens = model.generate(
164
  inputs.to(model.device),
165
+ max_new_tokens=14096,
166
+ temperature=0.7,
167
  do_sample=True
168
  )
169
 
170
 
171
  # Imprimir la salida generada
172
+ return "{".join(tokenizer.decode(tokens[0], skip_special_tokens=True).split("<|user|>")[1].split("{")[1:-1])