calm3-22b-RP
GGUF版はこちら/Click here for the GGUF version
また、こちらで本モデルのデモを公開しています。ぜひお試しください。
概要
This is a merge of pre-trained language models created using mergekit.
cyberagent/calm3-22b-chatと、これをベースとしてロールプレイ用にファインチューニングしたモデルであるAratako/calm3-22b-RP-v0.1をマージして作成したモデルです。
利用した学習データセットやパラメータ等の詳細は元モデルのモデルカードを参照してください。
プロンプトフォーマット
元モデルから変更なく、ChatMLのフォーマットでご利用ください。以下は2ターン目の会話を行う際の形式です。
<|im_start|>system
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}<|im_end|>
<|im_start|>user
{userの1ターン目の入力}<|im_end|>
<|im_start|>assistant
{assistantの1ターン目の応答}<|im_end|>
<|im_start|>user
{userの2ターン目の入力}<|im_end|>
<|im_start|>assistant
また、tokenizer.apply_chat_template()
を使って自動で成形することも可能です。
tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP")
messages = [
{"role": "system", "content": "{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}"},
{"role": "user", "content": "{userの1ターン目の入力}"},
{"role": "assistant", "content": "{assistantの1ターン目の入力}"},
{"role": "user", "content": "{userの2ターン目の入力}"}
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
マージの詳細
マージに利用しているモデルは以下の通りです。
また、mergekitのconfigは以下の通りです。
models:
- model: cyberagent/calm3-22b-chat
# no parameters necessary for base model
- model: Aratako/calm3-22b-RP-v0.1
parameters:
weight: 0.5
merge_method: breadcrumbs
base_model: cyberagent/calm3-22b-chat
dtype: bfloat16
tokenizer_source: base
parameters:
density: 0.9
gamma: 0.01
ライセンス
本モデルの学習データにはOpenAI社のGPT-4o-miniの出力やAnthropic社のClaude 3.5 Sonnetの出力が含まれるため、これらの競合となるサービスには本モデルは利用できません。 そのため、本モデルはCC-BY-NC-SA 4.0の元配布します。
- Downloads last month
- 20
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.