Edit model card

日本語 gpt2 蒸留モデル

このモデルはrinna/japanese-gpt2-meduimを教師として蒸留したものです。 蒸留には、HuggigFace Transformersのコードをベースとし、りんなの訓練コードと組み合わせてデータ扱うよう改造したものを使っています。

訓練用コード: https://github.com/knok/japanese-pretrained-models

学習に関して

学習に当たり、Google Startup Programにて提供されたクレジットを用いました。 a2-highgpu-4インスタンス(A100 x 4)を使って4か月程度、何度かのresumeを挟んで訓練させました。

精度について

Wikipediaをコーパスとし、perplexity 40 程度となります。 rinna/japanese-gpt2-meduim を直接使った場合、27 程度なので、そこまで及びません。 何度か複数のパラメータで訓練の再開を試みたものの、かえって損失が上昇してしまう状態となってしまったので、現状のものを公開しています。

トークナイザについて

トークナイザは rinna/japanese-gpt2-meduim を使ってください。

Japanese GPT-2 model

This model is a dillated model from rinna/japanese-gpt2-medium. To train, I combined HuggingFace Transformers code and rinna gpt2 train code.

The code is available at: https://github.com/knok/japanese-pretrained-models

training environment

To train, I used GCP credit offered by Google Startup Progam. Using a2-highgpu-4 instance (A100 x4), it takes about 4 months with some stopping and resume training.

perplexity

The model gets about 40 perplexity with Wikipedia corpus. The teacher model rinna/japanese-gpt2-meduim gets about 27 perplexity, so the student model is worse.

tokenizer

The repository don't have tokenizer, so you shoud use rinna/japanese-gpt2-medium.

LICENSE

MIT (same as rinna/japanese-gpt2-medium)

Downloads last month
53
Safetensors
Model size
116M params
Tensor type
F32
·
U8
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Datasets used to train knok/japanese-distilgpt2