Edit model card

Model Card for Model ID

Bu model test amaçlı hazırlanmıştır ve fikir vermesi açısından geliştirilmiştir. Model için Vikipedi üzerinden üretilen 40 bin soru cevap GPT ile eğitilmiştir. Daha büyük veri setlerinde daha iyi sonuçlar alınabilir.

Önemli Notlar

  • Inference için soruların başında [Q] kullanılmalıdır.
  • Sorular latin karakterlerden oluşmalıdır. ç ğ I ö ş ü gibi harfler içermemelidir.
  • Sorular küçük harflerden oluşmalıdır. Büyük harf veya sembol kullanımı farklı ve istenmeyen cevaplar üretecektir.

Model Details

Başlıklara göre en fazla soru cevap içeren konular aşağıdadır:

  • Cengiz Han: 665 adet
  • Futbol rekabetleri listesi: 409 adet
  • Lüleburgaz Muharebesi: 336 adet
  • I. Baybars: 263 adet
  • Sovyetler Birliği'nin askerî tarihi: 258 adet
  • Zümrüdüanka Yoldaşlığı: 245 adet
  • Gilles Deleuze: 208 adet
  • Ermenistan Sovyet Sosyalist Cumhuriyeti: 195 adet
  • Nâzım Hikmet: 173 adet
  • Hermann Göring: 169 adet
  • V. Leon: 163 adet
  • Gökhan Türkmen: 156 adet
  • Dumbledore'un Ordusu: 153 adet
  • Ajda Pekkan: 152 adet
  • Kırkpınar Yağlı Güreşleri: 152 adet
  • Mehdi Savaşı: 150 adet
  • İmamiye (Şiilik öğretisi): 149 adet
  • Rumyantsev Harekâtı: 145 adet
  • II. Dünya Savaşı tankları: 144 adet
  • Emîn: 142 adet
  • Boshin Savaşı: 137 adet
  • Wolfgang Amadeus Mozart: 136 adet
  • Faşizm: 134 adet
  • Kâzım Koyuncu: 133 adet
  • Suvorov Harekâtı: 128 adet
  • Mao Zedong: 127 adet
  • Mehdî (Abbâsî halifesi): 127 adet
  • Madagaskar: 124 adet
  • Oscar Niemeyer: 123 adet
  • Adolf Eichmann: 123 adet
  • Joachim von Ribbentrop: 121 adet
  • Crystal Palace FC: 119 adet
  • IV. Mihail: 111 adet
  • VI. Leon: 107 adet
  • Han Hanedanı: 105 adet
  • Portekiz coğrafi keşifleri: 104 adet
  • II. Nikiforos: 102 adet
  • III. Mihail: 98 adet
  • Fidel Castro: 96 adet
  • Tsushima Muharebesi: 94 adet
  • I. Basileios: 93 adet
  • VI. Konstantinos: 92 adet
  • Bijan Muharebesi: 91 adet
  • Otto Skorzeny: 90 adet
  • Antimon: 89 adet
  • Dijitalleştirme: 88 adet
  • Theofilos: 79 adet
  • Sovyet Hava Kuvvetleri: 78 adet
  • IV. Henry, Bölüm 1: 77 adet

Model Description

  • Developed by: Cenker Sisman
  • Model type: [More Information Needed]
  • Language(s) (NLP): [More Information Needed]
  • License: [More Information Needed]
  • Finetuned from model : redrussianarmy/gpt2-turkish-cased Loss değerleri

Model Sources [optional]

  • Repository: [More Information Needed]
  • Paper [optional]: [More Information Needed]
  • Demo [optional]: [More Information Needed]

Sınırlamalar ve Önyargılar

chatbotgpt-turkish, bir özyineli dil modeli olarak eğitildi. Bu, temel işlevinin bir metin dizisi alıp bir sonraki belirteci tahmin etmek olduğu anlamına gelir. Dil modelleri bunun dışında birçok görev için yaygın olarak kullanılsa da, bu çalışmayla ilgili birçok bilinmeyen bulunmaktadır.

chatbotgpt-turkish, küfür, açık saçıklık ve aksi davranışlara yol açan metinleri içerdiği bilinen bir veri kümesi olan Pile üzerinde eğitildi. Kullanım durumunuza bağlı olarak, chatbotgpt-turkish toplumsal olarak kabul edilemez metinler üretebilir. Pile makalesinin 5. ve 6. bölümlerinde Pile'daki önyargıların daha ayrıntılı bir analizini bulabilirsiniz.

Tüm dil modellerinde olduğu gibi, chatbotgpt-turkish'in belirli bir girişe nasıl yanıt vereceğini önceden tahmin etmek zordur ve uyarı olmaksızın saldırgan içerik ortaya çıkabilir. Sonuçları yayınlamadan önce insanların çıktıları denetlemesini veya filtrelemesini öneririz, hem istenmeyen içeriği sansürlemek hem de sonuçların kalitesini iyileştirmek için.

Uses

Direct Use

[More Information Needed]

Downstream Use [optional]

[More Information Needed]

Out-of-Scope Use

[More Information Needed]

Bias, Risks, and Limitations

[More Information Needed]

Recommendations

Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.

How to Get Started with the Model

"""Inference"""

from transformers import PreTrainedTokenizerFast, GPT2LMHeadModel, GPT2TokenizerFast, GPT2Tokenizer

def load_model(model_path):
    model = GPT2LMHeadModel.from_pretrained(model_path)
    return model


def load_tokenizer(tokenizer_path):
    tokenizer = GPT2Tokenizer.from_pretrained(tokenizer_path)
    return tokenizer

def generate_text(model_path, sequence, max_length):
    model = load_model(model_path)
    tokenizer = load_tokenizer(model_path)
    ids = tokenizer.encode(sequence, return_tensors='pt')
    outputs = model.generate(
        ids,
        do_sample=True,
        max_length=max_length,
        pad_token_id=model.config.eos_token_id,
        top_k=1,
        top_p=0.99,
    )
    converted = tokenizer.convert_ids_to_tokens(outputs[0])
    valid_tokens = [token if token is not None else '.' for token in converted]
    generated_text = tokenizer.convert_tokens_to_string(valid_tokens)
    print(generated_text)

model2_path = "cenkersisman/chatbotgpt-turkish"
sequence2 = "[Q] cengiz han kimdir"
max_len = 120

generate_text(model2_path, sequence2, max_len)

Training Details

Training Data

[More Information Needed]

Training Procedure

Preprocessing [optional]

[More Information Needed]

Training Hyperparameters

  • Training regime: [More Information Needed]

Speeds, Sizes, Times [optional]

[More Information Needed]

Evaluation

Testing Data, Factors & Metrics

Testing Data

[More Information Needed]

Factors

[More Information Needed]

Metrics

[More Information Needed]

Results

[More Information Needed]

Summary

Model Examination [optional]

[More Information Needed]

Environmental Impact

Carbon emissions can be estimated using the Machine Learning Impact calculator presented in Lacoste et al. (2019).

  • Hardware Type: [More Information Needed]
  • Hours used: [More Information Needed]
  • Cloud Provider: [More Information Needed]
  • Compute Region: [More Information Needed]
  • Carbon Emitted: [More Information Needed]

Technical Specifications [optional]

Model Architecture and Objective

[More Information Needed]

Compute Infrastructure

[More Information Needed]

Hardware

[More Information Needed]

Software

[More Information Needed]

Citation [optional]

BibTeX:

[More Information Needed]

APA:

[More Information Needed]

Glossary [optional]

[More Information Needed]

More Information [optional]

[More Information Needed]

Model Card Authors [optional]

[More Information Needed]

Model Card Contact

[More Information Needed]

Downloads last month
34
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.