Spaces:
Sleeping
Sleeping
from openai import AsyncAssistantEventHandler | |
from openai import AsyncOpenAI | |
import gradio as gr | |
import asyncio | |
import os | |
# set the keys | |
client = AsyncOpenAI( | |
api_key=os.getenv("OPENAI_API_KEY") | |
) | |
assistantID = os.getenv("OPENAI_ASSISTANT_ID") | |
username = os.getenv("YOUR_ID") | |
password = os.getenv("YOUR_PASSWORD") | |
mytitle = "<h1 align=center>RTL AI News Reader : Qu'est-ce qui s'est passé dans le pays 🇱🇺 et dans le monde 🌎 ?</h1>" | |
mydescription=""" | |
<h3 align='center'>Quel sujet vous intéresse : 🐶 🏃🏻♂️ 🌗 🍇 🌈 🍽️ 🏆 🚘 ✈️ 🩺 </h3> | |
<table width=100%> | |
<tr> | |
<th width=50% bgcolor="Moccasin">Posez vos questions en français ou dans une autre langue :</th> | |
<th bgcolor="Khaki">Réponse de l'Assistant file-search OpenAI :</th> | |
</tr> | |
</table> | |
""" | |
myarticle =""" | |
<h3>Contexte :</h3> | |
<p>Cette démo de HuggingFace Space a été réalisée par <a href="https://github.com/mbarnig">Marco Barnig</a>. | |
En tant qu'intelligence artificielle, le <a href="https://platform.openai.com/docs/models">modèle OpenAI</a> gpt-4o-mini-2024-07-18 est utilisé via une API, | |
qui peut utiliser jusqu'à 128 000 tokens comme contexte, fournir une réponse d'un maximum de 16 384 tokens à une question, | |
et traiter jusqu'à 200 000 tokens par minute (TPM). | |
L'ensemble du contenu français de RTL.lu depuis le début 2013 jusqu'en septembre 2024 a été découpé en 25 fichiers JSON | |
et chargé dans un Vector Store de l'Assistant file-search d'OpenAI "RTL French News Reader". | |
Chaque fichier contient moins de 5 millions de tokens, ce qui est une limite supérieure pour le modèle d'IA. | |
Il est possible de charger jusqu'à 10 000 fichiers sur un Assistant OpenAI. Les réponses des exemples sont mises en cache et donc affichées sans délai.</p> | |
""" | |
myinput = gr.Textbox(lines=3, label="Que voulez-vous savoir ?") | |
myexamples = [ | |
"Qui est Schlimé ?", | |
"Quel est le plus ancien message dans la base de données locale ?", | |
"Quels étaient les événements qui ont marqué l'année 2017 ?" | |
] | |
class EventHandler(AsyncAssistantEventHandler): | |
def __init__(self) -> None: | |
super().__init__() | |
self.response_text = "" | |
async def on_text_created(self, text) -> None: | |
self.response_text += str(text) | |
async def on_text_delta(self, delta, snapshot): | |
self.response_text += str(delta.value) | |
async def on_text_done(self, text): | |
pass | |
async def on_tool_call_created(self, tool_call): | |
self.response_text += f"\n[Tool Call]: {str(tool_call.type)}\n" | |
async def on_tool_call_delta(self, delta, snapshot): | |
if snapshot.id != getattr(self, "current_tool_call", None): | |
self.current_tool_call = snapshot.id | |
self.response_text += f"\n[Tool Call Delta]: {str(delta.type)}\n" | |
if delta.type == 'code_interpreter': | |
if delta.code_interpreter.input: | |
self.response_text += str(delta.code_interpreter.input) | |
if delta.code_interpreter.outputs: | |
self.response_text += "\n\n[Output]:\n" | |
for output in delta.code_interpreter.outputs: | |
if output.type == "logs": | |
self.response_text += f"\n{str(output.logs)}" | |
async def on_tool_call_done(self, text): | |
pass | |
# Initialize session variables | |
session_data = {"assistant_id": assistantID, "thread_id": None} | |
async def initialize_thread(): | |
# Create a Thread | |
thread = await client.beta.threads.create() | |
# Store thread ID in session_data for later use | |
session_data["thread_id"] = thread.id | |
async def generate_response(user_input): | |
assistant_id = session_data["assistant_id"] | |
thread_id = session_data["thread_id"] | |
# Add a Message to the Thread | |
oai_message = await client.beta.threads.messages.create( | |
thread_id=thread_id, | |
role="user", | |
content=user_input | |
) | |
# Create and Stream a Run | |
event_handler = EventHandler() | |
async with client.beta.threads.runs.stream( | |
thread_id=thread_id, | |
assistant_id=assistant_id, | |
instructions="Please assist the user with their query.", | |
event_handler=event_handler, | |
) as stream: | |
# Yield incremental updates | |
async for _ in stream: | |
await asyncio.sleep(0.1) # Small delay to mimic streaming | |
yield event_handler.response_text | |
# Gradio interface function (generator) | |
async def gradio_chat_interface(user_input): | |
# Create a new event loop if none exists (or if we are in a new thread) | |
try: | |
loop = asyncio.get_running_loop() | |
except RuntimeError: | |
loop = asyncio.new_event_loop() | |
asyncio.set_event_loop(loop) | |
# Initialize the thread if not already done | |
if session_data["thread_id"] is None: | |
await initialize_thread() | |
# Generate and yield responses | |
async for response in generate_response(user_input): | |
yield response | |
# Set up Gradio interface with streaming | |
interface = gr.Interface( | |
fn=gradio_chat_interface, | |
inputs=myinput, | |
outputs="markdown", | |
title=mytitle, | |
description=mydescription, | |
article=myarticle, | |
live=False, | |
allow_flagging="never", | |
examples=myexamples | |
) | |
# Launch the Gradio app | |
interface.launch(auth=(username, password), auth_message="<h1>Lecteur de nouvelles IA de RTL</h1><p>Ce HuggingFace Space est un prototype et n'est pas encore accessible à tout le monde. Le projet est basé sur un assistant de recherche de fichiers via l'API d'OpenAI et utilise le modèle GPT-4o-mini. Vous devez utiliser un navigateur Chrome. Les spécialistes en IA intéressés peuvent demander un identifiant et un mot de passe en contactant [email protected].</p>") |