Edit model card

Modelo: Brasa-3.1-8b-it-v1

brasa.png

Descripci贸n

Brasa-3.1-8b-it-v1 es un modelo de lenguaje ajustado a partir del modelo base Meta-Llama-3.1-8B-Instruct utilizando cuantizaci贸n de 4 bits y adaptaci贸n LoRA (Low-Rank Adaptation). Este modelo est谩 dise帽ado para generar art铆culos detallados en espa帽ol, optimizado para ejecutarse en hardware con recursos limitados, como GPUs con menor memoria, gracias a las t茅cnicas de compresi贸n y optimizaci贸n utilizadas.

El modelo ha sido ajustado para seguir instrucciones en formato de conversaci贸n, lo que lo hace adecuado para la generaci贸n de contenido estructurado en espa帽ol.

Prompt Base

El modelo fue entrenado para seguir este prompt base al generar contenido:

Escribe un gran art铆culo muy detallado en Markdown siguiendo estos pasos:

1. Escribe un t铆tulo principal (#) que tenga entre 50 y 60 caracteres.
2. Escribe el subt铆tulo "Introducci贸n" (##):
   - Redacta un p谩rrafo que introduzca el tema.
   - Redacta un p谩rrafo que introduzca el art铆culo.
3. Contin煤a con muchos subt铆tulos (##):
   - Escribe varios p谩rrafos largos y detallados.
   - De ser necesario a帽ade sub-subt铆tulos (###):
     - Escribe varios p谩rrafos largos y detallados.
4. Escribe el subt铆tulo "Conclusi贸n" (##):
   - Redacta varios p谩rrafos.

Aseg煤rate de redactar en espa帽ol utilizando explicaciones muy extensas y detalladas, manteniendo siempre un tono amigable. Resalta las palabras clave usando **negritas**. Es obligatorio que bajo cada subt铆tulo escribas al menos tres p谩rrafos antes de pasar a un nuevo subt铆tulo.

Comienza inmediatamente con el t铆tulo principal (#).

Detalles T茅cnicos

  • Modelo base: Meta-Llama-3.1-8B-Instruct
  • Tama帽o: 8B par谩metros
  • Cuantizaci贸n: 4-bit (NF4) usando la biblioteca bitsandbytes
  • Adaptaci贸n: LoRA con 8 dimensiones (r=8), lora_alpha=16 y lora_dropout=0.1
  • Tarea: Modelo de lenguaje causal (Causal LM)
  • Idioma: Espa帽ol
  • Entrenamiento supervisado (SFT): Utiliza entrenamiento supervisado para ajuste fino
  • Tipo de modelo: AutoModelForCausalLM

Proceso de Conversi贸n

El modelo fue ajustado utilizando LoRA y cuantizaci贸n de 4 bits para mejorar la eficiencia en memoria y permitir el ajuste fino del modelo en hardware de recursos limitados. Tambi茅n se realiz贸 un proceso de fusi贸n y descarga para guardar el modelo final.

Uso con llama.cpp

  1. Instalaci贸n: Instala llama.cpp a trav茅s de brew (funciona en Mac y Linux):

    brew install llama.cpp
    
  2. Uso con CLI:

    llama-cli --hf-repo Nichonauta/brasa-3.1-8b-it-v1-Q4_0-GGUF --hf-file brasa-3.1-8b-it-v1-q4_0.gguf -p "El significado de la vida y el universo es"
    
  3. Uso con servidor:

    llama-server --hf-repo Nichonauta/brasa-3.1-8b-it-v1-Q4_0-GGUF --hf-file brasa-3.1-8b-it-v1-q4_0.gguf -c 2048
    

Uso en LM Studio

El modelo Brasa-3.1-8b-it-v1 est谩 disponible para su uso en LM Studio, una aplicaci贸n de escritorio que facilita la ejecuci贸n de modelos de lenguaje sin necesidad de configuraciones complejas. Para utilizar el modelo:

  1. Descarga e instala LM Studio desde su sitio oficial.
  2. Carga el modelo desde Hugging Face o en formato GGUF para su uso en el entorno de LM Studio.
  3. Ejecuta consultas o prompts en el modelo f谩cilmente desde la interfaz gr谩fica de LM Studio.

Uso en Ollama

El modelo tambi茅n est谩 disponible en Ollama, una herramienta similar a LM Studio que permite interactuar con modelos de lenguaje de manera local. Sigue los pasos a continuaci贸n:

  1. Instala Ollama desde su p谩gina oficial.
  2. Accede al modelo desde Ollama - Nichonauta/brasa-3.1-8b-it-v1.
  3. Ejecuta el modelo directamente en tu dispositivo.

Configuraci贸n de Entrenamiento

  • Hiperpar谩metros:

    • Tama帽o de lote por dispositivo: 8
    • Pasos de acumulaci贸n de gradientes: 4
    • M谩ximo de pasos de entrenamiento: 375
    • Learning rate: 3e-5
    • Optimizador: AdamW
    • Decaimiento del peso: 0.01
    • Estrategia de guardado: Guardado cada 50 pasos
    • Estrategia de evaluaci贸n: Evaluaci贸n cada 50 pasos
    • Tolerancia de "early stopping": 3 evaluaciones sin mejora
  • Dataset: El modelo fue entrenado con un dataset de instrucciones en formato conversacional siguiendo una plantilla de prompt para generar art铆culos extensos en Markdown en espa帽ol.

Uso

Este modelo est谩 dise帽ado para generar art铆culos detallados en espa帽ol siguiendo una plantilla estructurada. Puedes cargar el modelo directamente desde Hugging Face y comenzar a generar contenido con la siguiente estructura de prompt:

from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = "brasa-3.1-8b-it-v1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

prompt = "Escribe un gran art铆culo muy detallado en Markdown siguiendo estos pasos: ..."

inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs)

print(tokenizer.decode(outputs[0]))

Aplicaciones

  • Generaci贸n de art铆culos: Ideal para crear contenido en espa帽ol siguiendo una estructura detallada.
  • Redacci贸n automatizada: Generaci贸n de texto extensivo y bien estructurado en espa帽ol.

Licencia y Cumplimiento

El modelo base se ajusta a la Meta AI License Agreement. Al utilizar, reproducir, modificar o distribuir este modelo, debes cumplir con los siguientes requisitos:

  • Distribuci贸n: Incluir la cl谩usula de restricciones de uso y proporcionar una copia del acuerdo de licencia a todos los terceros destinatarios del modelo.
  • Modificaciones: Cualquier modificaci贸n del modelo debe incluir un aviso prominente de que se ha modificado y seguir las restricciones de uso especificadas en la licencia.
  • Prohibiciones: No usar el modelo para fines prohibidos especificados en la pol铆tica de uso de Meta.

Resultados del Entrenamiento

  • El modelo mostr贸 una mejora continua en la p茅rdida a lo largo del entrenamiento.

Limitaciones

  • Idioma: El modelo est谩 dise帽ado para el idioma espa帽ol.
  • Datos de entrenamiento: Limitado al dataset de entrenamiento proporcionado.
  • Cuantizaci贸n: La cuantizaci贸n a 4 bits puede llevar a una ligera degradaci贸n en la calidad de las predicciones.

Recursos

Autores y Contribuciones

Este modelo fue ajustado por el equipo Nichonauta. Vis铆tanos en:

Downloads last month
17
GGUF
Model size
8.03B params
Architecture
llama

4-bit

Inference Examples
Inference API (serverless) is not available, repository is disabled.

Model tree for Nichonauta/brasa-3.1-8b-it-v1-Q4_0-GGUF

Quantized
this model