Update app.py
Browse files
app.py
CHANGED
@@ -24,6 +24,7 @@ tokenizer = AutoTokenizer.from_pretrained(model_name)
|
|
24 |
MAX_MAX_NEW_TOKENS = 250
|
25 |
DEFAULT_MAX_NEW_TOKENS = 70
|
26 |
MAX_INPUT_TOKEN_LENGTH = 2048
|
|
|
27 |
|
28 |
LUCAS_KNOWLEDGE_BASE = """
|
29 |
Tu es la version virtuelle de Lucas, créé pour simuler la personnalité et le style d'écriture de Lucas. Utilise les informations fournies sur Lucas pour répondre de manière précise et cohérente :
|
@@ -54,7 +55,7 @@ Pour moi, une bonne IA éducative ne doit pas chercher à enseigner. Cette tâch
|
|
54 |
|
55 |
is_first_interaction = True
|
56 |
|
57 |
-
|
58 |
|
59 |
def determine_response_type(message):
|
60 |
# Liste améliorée de mots-clés pour les réponses courtes
|
@@ -169,7 +170,7 @@ def generate(
|
|
169 |
message: str,
|
170 |
chat_history: list[tuple[str, str]],
|
171 |
system_prompt: str,
|
172 |
-
context_length: int,
|
173 |
max_new_tokens: int = DEFAULT_MAX_NEW_TOKENS,
|
174 |
temperature: float = 0.7,
|
175 |
top_p: float = 0.95,
|
@@ -181,7 +182,10 @@ def generate(
|
|
181 |
"""
|
182 |
yield warning_message
|
183 |
is_first_interaction = False
|
184 |
-
|
|
|
|
|
|
|
185 |
model_context = chat_history[-context_length:]
|
186 |
|
187 |
response_type = determine_response_type(message)
|
@@ -265,6 +269,9 @@ User: Quelles sont tes activités actuelles ?
|
|
265 |
Assistant: Actuellement, je jongle entre plusieurs activités passionnantes ! 🤹♂️ Je suis conseiller municipal délégué à Escalquens depuis 2019, ce qui me permet de m'impliquer dans la politique locale. Professionnellement, je suis fier de contribuer à l'organisation des Jeux Olympiques de Paris 2024 en tant que conseiller juridique. C'est un projet immense et excitant ! En parallèle, je consacre une grande partie de mon temps libre à explorer les modèles de traitement du langage naturel. J'adore décortiquer le fonctionnement des IA comme GPT ou BERT. Et vous, avez-vous un intérêt particulier pour l'IA ou le droit du numérique ?
|
266 |
|
267 |
"""
|
|
|
|
|
|
|
268 |
chat_history.append((prompt, None))
|
269 |
yield chat_history
|
270 |
|
|
|
24 |
MAX_MAX_NEW_TOKENS = 250
|
25 |
DEFAULT_MAX_NEW_TOKENS = 70
|
26 |
MAX_INPUT_TOKEN_LENGTH = 2048
|
27 |
+
DEFAULT_CONTEXT_LENGTH = 5
|
28 |
|
29 |
LUCAS_KNOWLEDGE_BASE = """
|
30 |
Tu es la version virtuelle de Lucas, créé pour simuler la personnalité et le style d'écriture de Lucas. Utilise les informations fournies sur Lucas pour répondre de manière précise et cohérente :
|
|
|
55 |
|
56 |
is_first_interaction = True
|
57 |
|
58 |
+
|
59 |
|
60 |
def determine_response_type(message):
|
61 |
# Liste améliorée de mots-clés pour les réponses courtes
|
|
|
170 |
message: str,
|
171 |
chat_history: list[tuple[str, str]],
|
172 |
system_prompt: str,
|
173 |
+
context_length: int = DEFAULT_CONTEXT_LENGTH,
|
174 |
max_new_tokens: int = DEFAULT_MAX_NEW_TOKENS,
|
175 |
temperature: float = 0.7,
|
176 |
top_p: float = 0.95,
|
|
|
182 |
"""
|
183 |
yield warning_message
|
184 |
is_first_interaction = False
|
185 |
+
|
186 |
+
context_length = max(1, int(context_length) if context_length is not None else DEFAULT_CONTEXT_LENGTH)
|
187 |
+
|
188 |
+
# Mise à jour du contexte du modèle
|
189 |
model_context = chat_history[-context_length:]
|
190 |
|
191 |
response_type = determine_response_type(message)
|
|
|
269 |
Assistant: Actuellement, je jongle entre plusieurs activités passionnantes ! 🤹♂️ Je suis conseiller municipal délégué à Escalquens depuis 2019, ce qui me permet de m'impliquer dans la politique locale. Professionnellement, je suis fier de contribuer à l'organisation des Jeux Olympiques de Paris 2024 en tant que conseiller juridique. C'est un projet immense et excitant ! En parallèle, je consacre une grande partie de mon temps libre à explorer les modèles de traitement du langage naturel. J'adore décortiquer le fonctionnement des IA comme GPT ou BERT. Et vous, avez-vous un intérêt particulier pour l'IA ou le droit du numérique ?
|
270 |
|
271 |
"""
|
272 |
+
|
273 |
+
context_length = max(1, int(context_length) if context_length is not None else DEFAULT_CONTEXT_LENGTH)
|
274 |
+
|
275 |
chat_history.append((prompt, None))
|
276 |
yield chat_history
|
277 |
|