Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -1,23 +1,27 @@
|
|
1 |
-
import spaces
|
2 |
import gradio as gr
|
3 |
-
from transformers import
|
|
|
|
|
|
|
|
|
4 |
|
5 |
# Initialiser le générateur de texte avec GPT-2
|
6 |
-
generator = pipeline('text-generation', model='gpt2')
|
7 |
|
8 |
# Optionnel : Fixer une graine aléatoire pour la reproductibilit
|
9 |
|
10 |
# Fonction de génération de texte
|
11 |
-
@spaces.GPU
|
12 |
def generate_text(prompt):
|
13 |
-
|
14 |
-
|
|
|
|
|
|
|
|
|
15 |
|
|
|
16 |
# Définir une fonction pour l'interface de chat
|
17 |
def chatbot(message,history):
|
18 |
-
str(message)
|
19 |
return generate_text(message)
|
20 |
-
|
21 |
|
22 |
|
23 |
gr.ChatInterface(chatbot).launch()
|
|
|
|
|
1 |
import gradio as gr
|
2 |
+
from transformers import BlenderbotTokenizer, BlenderbotForConditionalGeneration
|
3 |
+
|
4 |
+
|
5 |
+
tokenizer = BlenderbotTokenizer.from_pretrained('facebook/blenderbot-8B')
|
6 |
+
model = BlenderbotForConditionalGeneration.from_pretrained("facebook/blenderbot-8B")
|
7 |
|
8 |
# Initialiser le générateur de texte avec GPT-2
|
|
|
9 |
|
10 |
# Optionnel : Fixer une graine aléatoire pour la reproductibilit
|
11 |
|
12 |
# Fonction de génération de texte
|
|
|
13 |
def generate_text(prompt):
|
14 |
+
|
15 |
+
inputs = tokenizer(text, return_tensors="pt")
|
16 |
+
|
17 |
+
response_ids = model.generate(inputs.input_ids)
|
18 |
+
|
19 |
+
response_text = tokenizer.decode(response_ids[0], skip_special_tokens=True)
|
20 |
|
21 |
+
return response_text
|
22 |
# Définir une fonction pour l'interface de chat
|
23 |
def chatbot(message,history):
|
|
|
24 |
return generate_text(message)
|
|
|
25 |
|
26 |
|
27 |
gr.ChatInterface(chatbot).launch()
|