Update app.py
Browse files
app.py
CHANGED
@@ -2,7 +2,7 @@
|
|
2 |
# Reinaldo Chaves ([email protected])
|
3 |
# Este projeto implementa um sistema de Recuperação de Informações Aumentada por Geração (RAG) conversacional
|
4 |
# usando Streamlit, LangChain, e modelos de linguagem de grande escala - para entrevistar PDFs
|
5 |
-
# Geração de respostas usando o modelo
|
6 |
# Embeddings de texto usando o modelo all-MiniLM-L6-v2 do Hugging Face
|
7 |
##
|
8 |
|
@@ -153,11 +153,11 @@ Este projeto não se responsabiliza pelos conteúdos criados a partir deste site
|
|
153 |
|
154 |
**Sobre este app**
|
155 |
|
156 |
-
Este aplicativo foi desenvolvido por Reinaldo Chaves. Para mais informações, contribuições e feedback, visite o [repositório do projeto no GitHub](https://github.com/reichaves/
|
157 |
""")
|
158 |
|
159 |
st.markdown("<h1 class='yellow-title'>Chatbot com modelos opensource - entrevista PDFs ✏️</h1>", unsafe_allow_html=True)
|
160 |
-
st.write("Carregue PDFs e converse com o conteúdo deles - aqui é usado o modelo de LLM
|
161 |
|
162 |
# Solicitar as chaves de API
|
163 |
groq_api_key = st.text_input("Insira sua chave de API Groq:", type="password")
|
|
|
2 |
# Reinaldo Chaves ([email protected])
|
3 |
# Este projeto implementa um sistema de Recuperação de Informações Aumentada por Geração (RAG) conversacional
|
4 |
# usando Streamlit, LangChain, e modelos de linguagem de grande escala - para entrevistar PDFs
|
5 |
+
# Geração de respostas usando o modelo llama-3.2-90b-text-preview da Meta
|
6 |
# Embeddings de texto usando o modelo all-MiniLM-L6-v2 do Hugging Face
|
7 |
##
|
8 |
|
|
|
153 |
|
154 |
**Sobre este app**
|
155 |
|
156 |
+
Este aplicativo foi desenvolvido por Reinaldo Chaves. Para mais informações, contribuições e feedback, visite o [repositório do projeto no GitHub](https://github.com/reichaves/rag_chat_llama3).
|
157 |
""")
|
158 |
|
159 |
st.markdown("<h1 class='yellow-title'>Chatbot com modelos opensource - entrevista PDFs ✏️</h1>", unsafe_allow_html=True)
|
160 |
+
st.write("Carregue PDFs e converse com o conteúdo deles - aqui é usado o modelo de LLM llama-3.2-90b-text-preview e a plataforma de embeddings é all-MiniLM-L6-v2")
|
161 |
|
162 |
# Solicitar as chaves de API
|
163 |
groq_api_key = st.text_input("Insira sua chave de API Groq:", type="password")
|