0x7o commited on
Commit
b94cdc8
1 Parent(s): bdc10ea

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -2
app.py CHANGED
@@ -12,7 +12,7 @@ model = AutoModelForCausalLM.from_pretrained(
12
  torch_dtype=torch.bfloat16,
13
  )
14
 
15
- def predict(message, history):
16
  # Формирование чата из истории и нового сообщения
17
  chat = [{"role": "user" if i % 2 == 0 else "assistant", "content": m}
18
  for i, (m, _) in enumerate(history)] + [{"role": "user", "content": message}]
@@ -50,10 +50,15 @@ iface = gr.ChatInterface(
50
  "Расскажи мне о квантовой физике",
51
  "Какие интересные книги ты можешь порекомендовать?",
52
  ],
53
- cache_examples=True,
54
  retry_btn="Повторить",
55
  undo_btn="Отменить последнее",
56
  clear_btn="Очистить",
 
 
 
 
 
57
  )
58
 
59
  # Запуск интерфейса
 
12
  torch_dtype=torch.bfloat16,
13
  )
14
 
15
+ def predict(message, history, max_tokens, temperature, top_p):
16
  # Формирование чата из истории и нового сообщения
17
  chat = [{"role": "user" if i % 2 == 0 else "assistant", "content": m}
18
  for i, (m, _) in enumerate(history)] + [{"role": "user", "content": message}]
 
50
  "Расскажи мне о квантовой физике",
51
  "Какие интересные книги ты можешь порекомендовать?",
52
  ],
53
+ cache_examples=False,
54
  retry_btn="Повторить",
55
  undo_btn="Отменить последнее",
56
  clear_btn="Очистить",
57
+ additional_inputs=[
58
+ gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Максимальное количество новых токенов"),
59
+ gr.Slider(minimum=0.1, maximum=2.0, value=0.7, step=0.1, label="Температура"),
60
+ gr.Slider(minimum=0.1, maximum=1.0, value=0.95, step=0.05, label="Top-p (nucleus sampling)"),
61
+ ],
62
  )
63
 
64
  # Запуск интерфейса