Edit model card

A Llama reading a book

LLaMA-3-8B-Instruct-TR-DPO

LLaMA-3-8B-Instruct-TR-DPO is a finetuned version of Meta-LLaMA-3-8B-Instruct, which has been trained on a preference dataset generated synthetically.

Training Info

  • Base Model: Meta-LLaMA-3-8B-Instruct

  • Training Data: A synthetically generated preference dataset consisting of 10K samples was used. No proprietary data was utilized.

  • Training Time: 3 hours on a single RTX 6000 Ada

  • QLoRA Configs:

    • lora_r: 64
    • lora_alpha: 32
    • lora_dropout: 0.05
    • lora_target_linear: true

The aim was to finetune the model to enhance the output format and content quality for the Turkish language. It is not necessarily smarter than the base model, but its outputs are more likable and preferable.

Compared to the base model, LLaMA-3-8B-Instruct-TR-DPO is more fluent and coherent in Turkish. It can generate more informative and detailed answers for a given instruction.

It should be noted that the model will still generate incorrect or nonsensical outputs, so please verify the outputs before using them.

How to use

You can use the below code snippet to use the model:

from transformers import BitsAndBytesConfig
import transformers
import torch

bnb_config = BitsAndBytesConfig(
            load_in_4bit=True,
            bnb_4bit_use_double_quant=True,
            bnb_4bit_quant_type="nf4",
            bnb_4bit_compute_dtype=torch.bfloat16
)

model_id = "Metin/LLaMA-3-8B-Instruct-TR-DPO"

pipeline = transformers.pipeline(
    "text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16 ,'quantization_config': bnb_config},
    device_map="auto",
)

messages = [
    {"role": "system", "content": "You are a helpful assistant. Always reply in Turkish."},
    {"role": "user", "content": "Python'da bir âğenin bir listede geçip geçmediğini nasıl kontrol edebilirim?"},
]

prompt = pipeline.tokenizer.apply_chat_template(
        messages,
        tokenize=False,
        add_generation_prompt=True
)

terminators = [
    pipeline.tokenizer.eos_token_id,
    pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]

outputs = pipeline(
    prompt,
    max_new_tokens=512,
    eos_token_id=terminators,
    do_sample=True,
    temperature=0.2,
    top_p=0.9,
)

print(outputs[0]["generated_text"][len(prompt):])

OpenLLMTurkishLeaderboard_v0.2 benchmark results

  • MMLU_TR_V0.2: 49.83%
  • Truthful_QA_TR_V0.2: 52.32%
  • ARC_TR_V0.2: 44.37%
  • HellaSwag_TR_V0.2: 45.58%
  • GSM8K_TR_V0.2: 54.21%
  • Winogrande_TR_V0.2: 55.06%
  • Average: 50.22%

These scores may differ from what you will get when you run the same benchmarks, as I did not use any inference engine (vLLM, TensorRT-LLM, etc.)

Output Example (DPO Model vs Base Model)

Testing the model with a single example is not an accurate method. However, an example is provided here to showcase the model's capabilities.

Model: LLaMA-3-8B-Instruct-TR-DPO

Input

Yeni bir derin âğrenme modelinin tanıtımı için bir etkinlik planı hazırla.

Output

Harika bir fikir!

Etkinlik PlanΔ±: "Deep Learning Modeli TanΔ±tΔ±mΔ±"

**AdΔ±m 1: Γ–n-BaşlangΔ±Γ§**

* Konuşma konusu: "Deep Learning Modeli Tanıtımı"
* Katılımcı profili: Bilimsel ve teknoloji odaklı profesyoneller, âğrenciler ve araştırmacılar
* Etkinlik sΓΌresi: 2 saat

**Adım 2: Giriş**

* Sunum: "Deep Learning Modeli Tanıtımı: Tarihçesi ve Temelleri"
* Sunum içeriği: Deep learning modelinin tarihi, temel kavramları (ârneğin, ANN, CNN, RNN), uygulamaları ve avantajları
* Sunum sΓΌresi: 30 dakika

**AdΔ±m 3: Modelin Γ‡alışma Γ–rnekleri**

* Sunum: "Deep Learning Modelinin Γ‡alışma Γ–rnekleri"
* Sunum içeriği: Modelin uygulamaları (ârneğin, gârüntü sınıflandırma, doğal dil işleme, makine âğrenimi)
* Sunum sΓΌresi: 45 dakika

**Adım 4: Katılımcı Soruları ve Tartışma**

* KatΔ±lΔ±mcΔ± sorularΔ±na cevap verme
* Tartışma: Modelin avantajları ve dezavantajları, uygulamaları ve gelecekteki gelişmeleri

**Adım 5: Sonuç**

* Sunum: "Deep Learning Modelinin Sonuçları"
* Sunum içeriği: Modelin sonuçları, uygulamaları ve gelecekteki gelişmeleri
* Sunum sΓΌresi: 15 dakika

**Etkinlik NotlarΔ±**

* Sunumlar ve tartışmalar için gerekli malzemeleri hazırlayın
* Katılımcıların sorularına cevap verme için yeterli zaman ayırın
* Etkinlik sonrasΔ± katΔ±lΔ±mcΔ±larΔ±n geri bildirimlerini alΔ±n

Umarım bu etkinlik planı sizin için yardımcı olur!

Model: LLaMA-3-8B-Instruct

Input

Harika bir fikir! Aşağıdaki etkinlik planını hazırladım:

**Etkinlik AdΔ±:** "Derin Γ–ΔŸrenme Modelinin TanΔ±tΔ±mΔ±"

**Etkinlik Amacı:** Derin âğrenme modelinin tanıtımı ve uygulamaları hakkında bilgi sahibi olmak.

**Etkinlik PlanΔ±:**

1. **Giriş:** Derin âğrenme modelinin tanıtımı ve ânemi hakkında kısa bir konuşma.
2. **Teorik Bâlüm:** Derin âğrenme modelinin teorik temelleri ve çalışma prensipleri hakkında sunum.
3. **Uygulama Bâlüm:** Derin âğrenme modelinin uygulamaları ve başarıları hakkında sunum.
4. **Pratik Bâlüm:** Derin âğrenme modelinin pratik uygulamaları ve deneyimi hakkında sunum.
5. **Soru-Cevap Bâlüm:** Derin âğrenme modelinin sorularına cevap verme.
6. **Sonuç Bâlüm:** Derin âğrenme modelinin tanıtımı ve uygulamaları hakkında sonuç ve tavsiye.

**Etkinlik Malzemeleri:**

* Sunum araçları (slaj, powerpoint, vs.)
* Derin âğrenme modelinin uygulamaları hakkında ârnekler ve grafikler
* Derin âğrenme modelinin teorik temelleri hakkında kitap ve makaleler
* Derin âğrenme modelinin pratik uygulamaları hakkında deneyimi hakkında sunum

**Etkinlik SΓΌresi:** 2 saat

**Katılımcı Sayısı:** 20-30 kişi

**Etkinlik Yeri:** Bilimsel toplantΔ± salonu veya online platform

**Etkinlik Tarih ve Saati:** 10:00-12:00

**Etkinlik Dili:** Türkçe

**Etkinlik KatΔ±lΔ±mcΔ±larΔ±:** Bilimsel toplantΔ± salonunda veya online platformda katΔ±lΔ±mcΔ±lar.

**Etkinlik Sonuçları:** Derin âğrenme modelinin tanıtımı ve uygulamaları hakkında bilgi sahibi olmak.

**Etkinlik Tavsiyesi:** Derin âğrenme modelinin tanıtımı ve uygulamaları hakkında bilgi sahibi olmak.
Downloads last month
2,625
Safetensors
Model size
8.03B params
Tensor type
BF16
Β·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Metin/LLaMA-3-8B-Instruct-TR-DPO

Finetuned
(441)
this model
Finetunes
10 models
Quantizations
2 models

Spaces using Metin/LLaMA-3-8B-Instruct-TR-DPO 6

Evaluation results