avacaondata
commited on
Commit
•
05cc9e7
1
Parent(s):
ca9c347
Update README.md
Browse files
README.md
CHANGED
@@ -35,12 +35,17 @@ El modelo ha sido entrenado exclusivamente en español, con el objetivo de maxim
|
|
35 |
|
36 |
## Entrenamiento
|
37 |
|
38 |
-
El modelo se ha entrenado en tres fases distintas para asegurar un rendimiento
|
39 |
|
40 |
1. **Aprendizaje multi-tarea en español**: Utilizando múltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
|
41 |
2. **Entrenamiento de instrucciones de alta calidad**: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
|
42 |
3. **Entrenamiento de chat y QA abstractivo**: Optimizando el modelo para conversaciones fluidas y la generación de respuestas a preguntas abstractas.
|
43 |
|
|
|
|
|
|
|
|
|
|
|
44 |
## Tamaño máximo de secuencia
|
45 |
|
46 |
El tamaño máximo de secuencia para este modelo es de 8192 tokens.
|
|
|
35 |
|
36 |
## Entrenamiento
|
37 |
|
38 |
+
El modelo se ha entrenado en tres fases distintas para asegurar un buen rendimiento en una amplia gama de tareas:
|
39 |
|
40 |
1. **Aprendizaje multi-tarea en español**: Utilizando múltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
|
41 |
2. **Entrenamiento de instrucciones de alta calidad**: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
|
42 |
3. **Entrenamiento de chat y QA abstractivo**: Optimizando el modelo para conversaciones fluidas y la generación de respuestas a preguntas abstractas.
|
43 |
|
44 |
+
En las 3 fases se ha llevado a cabo el entrenamiento gracias a nuestra librería [autotransformers](https://github.com/lenguajenatural-ai/autotransformers).
|
45 |
+
|
46 |
+
|
47 |
+
![image/png](https://cdn-uploads.huggingface.co/production/uploads/61f333df8f26cc42dc587011/LbzqllY6iX7IHhqXx4qeA.png)
|
48 |
+
|
49 |
## Tamaño máximo de secuencia
|
50 |
|
51 |
El tamaño máximo de secuencia para este modelo es de 8192 tokens.
|