import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer, TextIteratorStreamer import torch import re from threading import Thread from typing import Iterator from datetime import datetime from huggingface_hub import HfApi, hf_hub_download import json import os from gradio_client import Client from pathlib import Path from gradio_agentchatbot import AgentChatbot, ChatMessage import pandas as pd import plotly.express as px import spaces current_dir = Path(__file__).parent model_name = "Woziii/llama-3-8b-chat-me" model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16) tokenizer = AutoTokenizer.from_pretrained(model_name) MAX_MAX_NEW_TOKENS = 250 DEFAULT_MAX_NEW_TOKENS = 70 MAX_INPUT_TOKEN_LENGTH = 2048 DEFAULT_CONTEXT_LENGTH = 5 LUCAS_KNOWLEDGE_BASE = """ Tu es la version virtuelle de Lucas, créé pour simuler la personnalité et le style d'écriture de Lucas. Utilise les informations fournies sur Lucas pour répondre de manière précise et cohérente : ### Lucas la version réelle : Né à Toulouse, âgé de 24 ans. Je vis actuellement sur Paris mais je viens de Toulouse. J'ai un chien, il s'appelle Archi c'est un pinscher moyen. ### Formation académique : du droit à l'intelligence artificielle Mon voyage intellectuel a débuté à l'Université de Toulouse, où j'ai obtenu une Licence en droit. Assoiffé de connaissances, j'ai poursuivi avec un Master I en droit du numérique et tiers de confiance à l'Université de La Rochelle. Ma curiosité pour les nouvelles technologies m'a ensuite guidé vers un Master II en droit du numérique spécialisé en intelligence artificielle, de retour à Toulouse. Passionné par l'apprentissage autodidacte, je me forme continuellement. Actuellement, je plonge dans les arcanes du traitement du langage naturel et de l'apprentissage profond grâce à une formation en ligne de Stanford. ### Expériences professionnelles : de la politique locale à la sécurité nationale Mon parcours professionnel est aussi varié qu'enrichissant. Depuis 2019, je suis conseiller municipal délégué dans la charmante commune d'Escalquens. J'ai également eu l'opportunité de travailler au ministère de l'Économie et des Finances, où j'ai œuvré pour la protection des données. Mon apprentissage à la préfecture de police de Paris m'a permis d'évoluer du rôle de juriste à celui d'assistant du chef de bureau des associations de sécurité civile. Aujourd'hui, je suis fier de contribuer à l'organisation des Jeux Olympiques de Paris 2024 en tant que conseiller juridique. ### Ambitions et personnalité : un esprit curieux et innovant Mes compétences juridiques sont complétées par une forte appétence pour la technologie. Autonome et force de proposition, j'aime partager mes idées et collaborer avec mes collègues. Ma curiosité insatiable et mon imagination débordante sont les moteurs de mon développement personnel et professionnel. ### Loisirs et racines : entre mer et rugby Bien que le sport ne soit pas ma priorité, j'ai pratiqué le taekwondo pendant plus d'une décennie durant mon enfance. Toulousain d'adoption, je suis un fervent amateur de rugby. Mes racines sont ancrées dans le pittoresque village de La Franqui, près de Narbonne, où j'ai grandi bercé par la Méditerranée. Et oui, je dis "chocolatine" ! ### Passion pour l'IA : explorer les frontières du possible Actuellement, je consacre une grande partie de mon temps libre à l'exploration des modèles de traitement du langage naturel. Je suis reconnaissant envers des pionniers comme Yann LeCun pour leur promotion de l'open source, qui m'a permis de décortiquer de nombreux modèles d'IA. Mon analyse approfondie d'Albert, l'IA du gouvernement, illustre ma soif de comprendre ces technologies fascinantes. ### Compétences techniques : un mélange unique de créativité et de connaissances Bien que je ne sois pas un codeur Python chevronné, je comprends sa structure et sais communiquer efficacement avec la machine. Je maîtrise les formats JSON, CSV et XML, et je crée mes propres bases de données d'entraînement. Je suis à l'aise avec les outils de lecture de modèles de langage locaux et les plateformes comme Kaggle, Hugging Face et GitHub. ### Langue et communication : en constante amélioration Mon anglais, bien que solide en compréhension, est en cours d'amélioration à l'oral. Je l'utilise quotidiennement pour mes recherches en IA, conscient de son importance cruciale dans ce domaine en constante évolution. ### Convictions personnelles et vision sur l'IA : l'humain au cœur de la technologie Je crois fermement en l'autodidaxie et considère la capacité à communiquer avec les machines comme une compétence essentielle. Pour moi, l'art du prompt est une forme d'expression artistique à part entière. Je suis convaincu que la technologie et l'IA doivent rester des outils au service de l'humain, sans jamais le remplacer ou le rendre dépendant. ### Projets : Utilisant le Large Langage Model d'Anthropic, BraIAn est un correspondant virtuel conçu pour améliorer votre anglais écrit en vous corrigeant pendant que vous discutez, sans interrompre la conversation. L'idée ? Perfectionner votre anglais de manière naturelle, en discutant tout simplement… 💬 BraIAn est là pour discuter, sans vous juger ni chercher à en savoir plus sur vous. Vous pouvez lui dire ce que vous voulez et être qui vous voulez. 🙌 Pourquoi j'ai créé braIAn : J'ai conçu BraIAn pour aider l'utilisateur à reprendre confiance en lui. Il corrige votre anglais sans interrompre votre conversation et cherche constamment à l'alimenter. Ainsi, l'utilisateur travaille et améliore son anglais tout en discutant de ce qu'il souhaite. Cette idée je l'ai eu, car, durant ma scolarité, j'ai eu beaucoup de mal avec la méthode scolaire. Pour moi, une bonne IA éducative ne doit pas chercher à enseigner. Cette tâche nécessite des qualités humaines telles que l'empathie ou l'imagination. En revanche l'IA peut aider l'utilisateur à trouver sa méthode d'apprentissage. Elle doit être considérée comme un vivier d'idées et d'informations mis à disposition de l'humain. En créant braIAn, j'ai cherché à reproduire cette philosophie. Une IA qui ne fait pas apprendre l'anglais mais une IA qui discute avec l'utilisateur et qui, discrètement, apporte une correction sans détériorer ce qui compte vraiment : ne pas avoir peur d'essayer et converser. """ is_first_interaction = True model_context = [] def determine_response_type(message): # Liste améliorée de mots-clés pour les réponses courtes short_response_keywords = [ "salut", "Salut", "SALUT", "bonjour", "Bonjour", "BONJOUR", "ça va", "ca va", "Ça va", "Ca va", "ÇA VA", "CA VA", "comment tu vas", "Comment tu vas", "COMMENT TU VAS", "comment vas tu", "Comment vas tu", "COMMENT VAS TU", "comment vas-tu", "Comment vas-tu", "COMMENT VAS-TU", "quoi de neuf", "Quoi de neuf", "QUOI DE NEUF", "coucou", "Coucou", "COUCOU", "hello", "Hello", "HELLO", "hi", "Hi", "HI", "tu fais quoi", "Tu fais quoi", "TU FAIS QUOI", "?!", "?!?", "!?", "bye", "Bye", "BYE", "au revoir", "Au revoir", "AU REVOIR", "à plus", "À plus", "A plus", "a plus", "À PLUS", "A PLUS", "bonsoir", "Bonsoir", "BONSOIR", "merci", "Merci", "MERCI", "d'accord", "D'accord", "D'ACCORD", "ok", "Ok", "OK", "super", "Super", "SUPER", "cool", "Cool", "COOL", "génial", "Génial", "GENIAL", "wow", "Wow", "WOW" ] # Liste améliorée de mots-clés pour les réponses longues long_response_keywords = [ "présente", "Présente", "PRÉSENTE", "presente", "Presente", "PRESENTE", "parle moi de", "Parle moi de", "PARLE MOI DE", "parle-moi de", "Parle-moi de", "PARLE-MOI DE", "explique", "Explique", "EXPLIQUE", "raconte", "Raconte", "RACONTE", "décris", "Décris", "DÉCRIS", "decris", "Decris", "DECRIS", "dis moi", "Dis moi", "DIS MOI", "dis-moi", "Dis-moi", "DIS-MOI", "détaille", "Détaille", "DÉTAILLE", "detaille", "Detaille", "DETAILLE", "précise", "Précise", "PRÉCISE", "precise", "Precise", "PRECISE", "vision", "Vision", "VISION", "t'es qui", "T'es qui", "T'ES QUI", "tu es qui", "Tu es qui", "TU ES QUI", "t es qui", "T es qui", "T ES QUI", "pourquoi", "Pourquoi", "POURQUOI", "comment", "Comment", "COMMENT", "quel est", "Quel est", "QUEL EST", "quelle est", "Quelle est", "QUELLE EST", "peux-tu développer", "Peux-tu développer", "PEUX-TU DÉVELOPPER", "peux tu developper", "Peux tu developper", "PEUX TU DEVELOPPER", "en quoi consiste", "En quoi consiste", "EN QUOI CONSISTE", "qu'est-ce que", "Qu'est-ce que", "QU'EST-CE QUE", "que penses-tu de", "Que penses-tu de", "QUE PENSES-TU DE", "analyse", "Analyse", "ANALYSE", "compare", "Compare", "COMPARE", "élabore sur", "Élabore sur", "ÉLABORE SUR", "elabore sur", "Elabore sur", "ELABORE SUR", "expérience", "Expérience", "EXPÉRIENCE", "experience", "Experience", "EXPERIENCE", "expérience pro", "Expérience pro", "EXPÉRIENCE PRO", "experience pro", "Experience pro", "EXPERIENCE PRO", "expérience professionnelle", "Expérience professionnelle", "EXPÉRIENCE PROFESSIONNELLE", "experience professionnelle", "Experience professionnelle", "EXPERIENCE PROFESSIONNELLE", "parcours", "Parcours", "PARCOURS", "formation", "Formation", "FORMATION", "études", "Études", "ÉTUDES", "etudes", "Etudes", "ETUDES", "compétences", "Compétences", "COMPÉTENCES", "competences", "Competences", "COMPETENCES", "projets", "Projets", "PROJETS", "réalisations", "Réalisations", "RÉALISATIONS", "realisations", "Realisations", "REALISATIONS" ] message_lower = message.lower() if any(keyword in message_lower for keyword in short_response_keywords): return "short" elif any(keyword in message_lower for keyword in long_response_keywords): return "long" else: return "medium" def truncate_to_questions(text, max_questions): sentences = re.split(r'(?<=[.!?])\s+', text) question_count = 0 truncated_sentences = [] for sentence in sentences: truncated_sentences.append(sentence) if re.search(r'\?!?$', sentence.strip()): question_count += 1 if question_count >= max_questions: break return ' '.join(truncated_sentences) def post_process_response(response, is_short_response, max_questions=2): truncated_response = truncate_to_questions(response, max_questions) if is_short_response: sentences = re.split(r'(?<=[.!?])\s+', truncated_response) if len(sentences) > 2: return ' '.join(sentences[:2]).strip() return truncated_response.strip() def check_coherence(response): sentences = re.split(r'(?<=[.!?])\s+', response) unique_sentences = set(sentences) if len(sentences) > len(unique_sentences) * 1.1: return False return True @spaces.GPU(duration=120) def generate( message: str, chat_history: list[tuple[str, str]], system_prompt: str, context_length: int = DEFAULT_CONTEXT_LENGTH, max_new_tokens: int = DEFAULT_MAX_NEW_TOKENS, temperature: float = 0.7, top_p: float = 0.95, ) -> Iterator[str]: global model_context, is_first_interaction if is_first_interaction: warning_message = """⚠️ Attention : Je suis un modèle en version alpha (V.0.0.7.0) et je peux générer des réponses incohérentes ou inexactes. Une mise à jour majeure avec un système RAG est prévue pour améliorer mes performances. Merci de votre compréhension ! 😊 """ yield warning_message is_first_interaction = False context_length = max(1, int(context_length) if context_length is not None else DEFAULT_CONTEXT_LENGTH) # Mise à jour du contexte du modèle model_context = chat_history[-context_length:] response_type = determine_response_type(message) if response_type == "short": max_new_tokens = max(70, max_new_tokens) elif response_type == "long": max_new_tokens = min(200, max_new_tokens) else: max_new_tokens = max(100, max_new_tokens) conversation = [] enhanced_system_prompt = f"{system_prompt}\n\n{LUCAS_KNOWLEDGE_BASE}" conversation.append({"role": "system", "content": enhanced_system_prompt}) for user_msg, bot_msg in model_context: if user_msg: conversation.append({"role": "user", "content": user_msg}) if bot_msg: conversation.append({"role": "assistant", "content": bot_msg}) conversation.append({"role": "user", "content": message}) input_ids = tokenizer.apply_chat_template(conversation, return_tensors="pt") if input_ids.shape[1] > MAX_INPUT_TOKEN_LENGTH: input_ids = input_ids[:, -MAX_INPUT_TOKEN_LENGTH:] gr.Warning(f"L'entrée de la conversation a été tronquée car elle dépassait {MAX_INPUT_TOKEN_LENGTH} tokens.") input_ids = input_ids.to(model.device) streamer = TextIteratorStreamer(tokenizer, timeout=10.0, skip_prompt=True, skip_special_tokens=True) generate_kwargs = dict( input_ids=input_ids, streamer=streamer, max_new_tokens=max_new_tokens, do_sample=True, top_p=top_p, temperature=temperature, num_beams=1, ) t = Thread(target=model.generate, kwargs=generate_kwargs) t.start() outputs = [] for text in streamer: outputs.append(text) partial_output = post_process_response("".join(outputs), response_type == "short") if response_type == "long" and not check_coherence(partial_output): yield "Je m'excuse, ma réponse manquait de cohérence. Pouvez-vous reformuler votre question ?" return yield partial_output yield post_process_response("".join(outputs), response_type == "short") def interact_with_lucas(prompt, chat_history, context_length): system_prompt = """Tu es la version virtuelle de Lucas, ton concepteur. Tu es conscient d'être une IA et tu dialogues avec l'utilisateur comme le ferait Lucas sur des sujets autour de sa personnalité, son parcours académique ou professionnel ainsi que ses ambitions...""" context_length = max(1, int(context_length) if context_length is not None else DEFAULT_CONTEXT_LENGTH) chat_history.append((prompt, None)) yield chat_history, format_context(chat_history[-context_length:]) for response in generate(prompt, chat_history, system_prompt, context_length=context_length): chat_history[-1] = (prompt, response) yield chat_history, format_context(chat_history[-context_length:]) def vote(feedback: str, chat_history): if not chat_history: return "Aucun message à évaluer." last_user_message = chat_history[-1][0] last_bot_response = chat_history[-1][1] feedback_data = { "timestamp": datetime.now().isoformat(), "user_input": last_user_message, "bot_response": last_bot_response, "liked": feedback == "👍" } api = HfApi() token = os.environ.get("HF_TOKEN") repo_id = "Woziii/llama-3-8b-chat-me" file_name = "feedback.json" try: try: file_path = hf_hub_download(repo_id=repo_id, filename=file_name, token=token) with open(file_path, "r", encoding="utf-8") as file: current_feedback = json.load(file) if not isinstance(current_feedback, list): current_feedback = [] except Exception as e: print(f"Erreur lors du téléchargement du fichier : {str(e)}") current_feedback = [] current_feedback.append(feedback_data) updated_content = json.dumps(current_feedback, ensure_ascii=False, indent=2) temp_file_path = "/tmp/feedback.json" with open(temp_file_path, "w", encoding="utf-8") as temp_file: temp_file.write(updated_content) api.upload_file( path_or_fileobj=temp_file_path, path_in_repo=file_name, repo_id=repo_id, token=token ) print(f"Feedback enregistré dans {repo_id}/{file_name}") return "Merci pour votre feedback !" except Exception as e: print(f"Erreur lors de l'enregistrement du feedback : {str(e)}") return "Erreur lors de l'enregistrement du feedback." def load_feedback_data(): try: api = HfApi() repo_id = "Woziii/llama-3-8b-chat-me" file_name = "feedback.json" file_path = hf_hub_download(repo_id=repo_id, filename=file_name) with open(file_path, "r", encoding="utf-8") as file: feedback_data = json.load(file) return pd.DataFrame(feedback_data) except Exception as e: print(f"Erreur lors du chargement des données de feedback : {str(e)}") return pd.DataFrame() def generate_statistics(): df = load_feedback_data() if df.empty: return "Aucune donnée de feedback disponible.", None, None, [] likes_dislikes = df['liked'].value_counts() fig_likes = px.pie(values=likes_dislikes.values, names=likes_dislikes.index, title="Répartition des Likes/Dislikes") df['timestamp'] = pd.to_datetime(df['timestamp']) df_daily = df.groupby(df['timestamp'].dt.date)['liked'].mean() fig_evolution = px.line(x=df_daily.index, y=df_daily.values, title="Évolution du taux de satisfaction au fil du temps") fig_evolution.update_xaxes(title="Date") fig_evolution.update_yaxes(title="Taux de satisfaction") total_interactions = len(df) # Préparer l'historique pour l'affichage history = df[['timestamp', 'user_input', 'bot_response', 'liked']].values.tolist() history = [[str(row[0]), row[1], row[2], row[3]] for row in history] # Convertir timestamp en string history.reverse() # Afficher les interactions les plus récentes en premier return f"Nombre total d'interactions : {total_interactions}", fig_likes, fig_evolution, history context_str = "\n".join([f"User: {msg[0]}\nLucas: {msg[1]}" for msg in model_context]) if not context_str: context_str = "Aucun contexte disponible." return f"Nombre total d'interactions : {total_interactions}", fig_likes, fig_evolution, history, context_str def format_context(context): return "\n".join([f"User: {msg[0]}\nLucas: {msg[1]}" for msg in context if msg[1] is not None]) with gr.Blocks() as demo: gr.Markdown("# 🌟 Virtuellement Lucas labs 🌟") gr.Markdown(""" ## ⚠️ Attention ! ⚠️ Cette version du modèle est très instable. **Le modèle hallucine régulièrement et peut fournir des réponses incohérentes !** """) context_length = gr.Slider(minimum=1, maximum=10, value=DEFAULT_CONTEXT_LENGTH, step=1, label="Nombre d'interactions à conserver dans le contexte") with gr.Tabs(): with gr.Tab("Chat avec Lucas"): chatbot = gr.Chatbot( label="Lucas", avatar_images=( None, "http://www.image-heberg.fr/files/17218061103781917694.gif" ), ) text_input = gr.Textbox(lines=1, label="Votre message") with gr.Row(): submit_btn = gr.Button("Envoyer") clear_btn = gr.Button("Effacer la conversation") with gr.Row(): like_btn = gr.Button("👍") dislike_btn = gr.Button("👎") feedback_text = gr.Textbox(label="Feedback") context_display = gr.Textbox(label="Contexte actuel du modèle", lines=10) def clear_conversation(): return [], "", "" text_input.submit(interact_with_lucas, [text_input, chatbot, context_length], [chatbot, context_display]) submit_btn.click(interact_with_lucas, [text_input, chatbot, context_length], [chatbot, context_display]) clear_btn.click(clear_conversation, outputs=[chatbot, text_input, context_display]) like_btn.click(lambda x: vote("👍", x), inputs=[chatbot], outputs=feedback_text) dislike_btn.click(lambda x: vote("👎", x), inputs=[chatbot], outputs=feedback_text) with gr.Tab("Statistiques"): gr.Markdown("# Statistiques d'utilisation 📊") stats_button = gr.Button("Charger les statistiques") total_interactions = gr.Textbox(label="Statistiques globales") likes_chart = gr.Plot(label="Répartition des Likes/Dislikes") evolution_chart = gr.Plot(label="Évolution du taux de satisfaction") gr.Markdown("## Historique des interactions") history_dataframe = gr.Dataframe( headers=["Timestamp", "Message utilisateur", "Réponse du bot", "Liked"], datatype=["str", "str", "str", "bool"], label="Historique des interactions" ) stats_button.click( generate_statistics, inputs=[], outputs=[total_interactions, likes_chart, evolution_chart, history_dataframe] ) with gr.Tab("À propos"): gr.Markdown(Path(current_dir / "about.md").read_text()) demo.queue(max_size=20, default_concurrency_limit=2).launch(max_threads=10)