Edit model card

Mallam 1.1B 20k Instructions v2 - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.

Prompt template: Mistral

<s>[INST] This is a system prompt.

This is the first user input. [/INST] This is the first assistant response.
</s>[INST] This is the second user input. [/INST]

Fail yang diberikan

Sila rujuk Files and versions

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.


Downloads last month
70
GGUF
Model size
1.12B params
Architecture
llama

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

32-bit

Inference Examples
Inference API (serverless) has been turned off for this model.

Model tree for prsyahmi/mallam-1.1b-20k-instructions-v2-GGUF

Quantized
(1)
this model