Spaces:
Running
on
CPU Upgrade
Running
on
CPU Upgrade
Update app.py
Browse files
app.py
CHANGED
@@ -239,6 +239,20 @@ with demo:
|
|
239 |
queue=True,
|
240 |
)
|
241 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
242 |
with gr.TabItem("π About", elem_id="llm-benchmark-tab-table", id=2):
|
243 |
gr.Markdown(LLM_BENCHMARKS_TEXT, elem_classes="markdown-text")
|
244 |
|
|
|
239 |
queue=True,
|
240 |
)
|
241 |
|
242 |
+
with gr.TabItem('Classifica RAG'):
|
243 |
+
gr.Markdown('''# Classifica RAG degli LLM italiani''')
|
244 |
+
gr.Markdown(f'''In questa sezione i modelli sono valutati su dei task di Q&A e ordinati per F1 Score e EM (Exact Match). La repo di riferimento Γ¨ [questa](https://github.com/C080/open-llm-ita-leaderboard).
|
245 |
+
I modelli in cima alla classifica sono ritenuti preferibili per i task di Retrieval Augmented Generation.''')
|
246 |
+
gr.Dataframe(pd.read_csv(csv_filename, sep=';'))
|
247 |
+
gr.Markdown(f"Si ringrazia il @galatolo per il codice dell'eval.")
|
248 |
+
|
249 |
+
|
250 |
+
with gr.TabItem('Eval aggiuntive'):
|
251 |
+
gr.Markdown('''# Altre evaluation''')
|
252 |
+
gr.Markdown('''Qui ci sono altri test di altri modelli, che non sono ancora stati integrati nella classifica generale.''')
|
253 |
+
gr.Dataframe(get_data_totale)
|
254 |
+
gr.Markdown(f"Si ringrazia https://seeweeb.it per la computazione.")
|
255 |
+
|
256 |
with gr.TabItem("π About", elem_id="llm-benchmark-tab-table", id=2):
|
257 |
gr.Markdown(LLM_BENCHMARKS_TEXT, elem_classes="markdown-text")
|
258 |
|