Update app.py
Browse files
app.py
CHANGED
@@ -321,7 +321,7 @@ def invoke (prompt, history, openai_api_key, rag_option, temperature=0.9, max_ne
|
|
321 |
###############################################
|
322 |
#Beschreibung oben in GUI
|
323 |
################################################
|
324 |
-
title = "LLM mit RAG"
|
325 |
description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
|
326 |
<strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> demonstriert.\n\n
|
327 |
"""
|
@@ -335,7 +335,7 @@ def vote(data: gr.LikeData):
|
|
335 |
additional_inputs = [
|
336 |
gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
|
337 |
#gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
|
338 |
-
gr.Radio(["
|
339 |
gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten"),
|
340 |
gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens"),
|
341 |
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit."),
|
@@ -346,7 +346,7 @@ chatbot_stream = gr.Chatbot()
|
|
346 |
|
347 |
chat_interface_stream = gr.ChatInterface(fn=invoke,
|
348 |
#additional_inputs = additional_inputs,
|
349 |
-
title = "
|
350 |
theme="soft",
|
351 |
chatbot=chatbot_stream,
|
352 |
retry_btn="Wiederholen",
|
|
|
321 |
###############################################
|
322 |
#Beschreibung oben in GUI
|
323 |
################################################
|
324 |
+
#title = "LLM mit RAG"
|
325 |
description = """<strong>Information:</strong> Hier wird ein <strong>Large Language Model (LLM)</strong> mit
|
326 |
<strong>Retrieval Augmented Generation (RAG)</strong> auf <strong>externen Daten</strong> demonstriert.\n\n
|
327 |
"""
|
|
|
335 |
additional_inputs = [
|
336 |
gr.Textbox(label = "OpenAI API Key", value = "sk-", lines = 1),
|
337 |
#gr.Radio(["Off", "Chroma", "MongoDB"], label="Retrieval Augmented Generation", value = "Off"),
|
338 |
+
gr.Radio(["Aus", "An"], label="RAG - LI Erweiterungen", value = "Aus"),
|
339 |
gr.Slider(label="Temperature", value=0.9, minimum=0.0, maximum=1.0, step=0.05, interactive=True, info="Höhere Werte erzeugen diversere Antworten"),
|
340 |
gr.Slider(label="Max new tokens", value=256, minimum=0, maximum=4096, step=64, interactive=True, info="Maximale Anzahl neuer Tokens"),
|
341 |
gr.Slider(label="Top-p (nucleus sampling)", value=0.6, minimum=0.0, maximum=1, step=0.05, interactive=True, info="Höhere Werte verwenden auch Tokens mit niedrigerer Wahrscheinlichkeit."),
|
|
|
346 |
|
347 |
chat_interface_stream = gr.ChatInterface(fn=invoke,
|
348 |
#additional_inputs = additional_inputs,
|
349 |
+
title = "ChatGPT vom LI",
|
350 |
theme="soft",
|
351 |
chatbot=chatbot_stream,
|
352 |
retry_btn="Wiederholen",
|