Edit model card

French-Alpaca-Instruct Q4

Quantized 4bits Q4_K_M version of https://huggingface.co/jpacifico/French-Alpaca-Llama3-8B-Instruct-v1.0

This 4 bits version of French-Alpaca
can be used on a CPU device incl. Raspberry Pi 5 8gb, and is supported by LLM cpp tools (llama.cpp, Ollama, LM Studio ..)

Usage

Ollama Modelfile example :

FROM ./french-alpaca-llama3-4bits.gguf

TEMPLATE """Tu trouveras ci-dessous une instruction qui décrit une tâche. Rédige une réponse qui complète de manière appropriée la demande.


{{ if .System }}### Instruction:
{{ .System }}{{ end }}

{{ if .Prompt }}### Input:
{{ .Prompt }}{{ end }}

### Response:
"""

PARAMETER stop "### Response:"
PARAMETER stop "### Instruction:"
PARAMETER stop "### Input:"
PARAMETER stop "Tu trouveras ci-dessous une instruction qui décrit une tâche. Rédige une réponse qui complète de manière appropriée la demande."
PARAMETER num_predict 300

Limitations

The French-Alpaca model is a quick demonstration that a base 8B model can be easily fine-tuned to specialize in a particular language. It does not have any moderation mechanisms.

  • Developed by: Jonathan Pacifico, 2024
  • Model type: LLM
  • Language(s) (NLP): French
  • License: Apache-2.0
Downloads last month
20
GGUF
Model size
8.03B params
Architecture
llama
Inference API
Unable to determine this model's library. Check the docs .

Dataset used to train jpacifico/french-alpaca-llama3-8B-Q4-GGUF

Collection including jpacifico/french-alpaca-llama3-8B-Q4-GGUF