Edit model card

Oumuamua-7b-RP

GGUF版はこちら/Click here for the GGUF version

概要

This is a merge of pre-trained language models created using mergekit.

ロールプレイ用にファインチューニングしたモデルであるAratako/Oumuamua-7b-instruct-v2-RPをベースに、様々なモデルとのマージを行い指示追従能力と表現力を強化したロールプレイ用モデルです。

ベースモデルの学習データセット等の詳細は元モデルのモデルカードを参照してください。

プロンプトフォーマット

以下のようなchat templateを利用してください。(Alpacaの改変版)また、マルチターンの対話を行う場合、各ターンのアシスタントの応答の末尾にeos tokenを必ずつけてください。

{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}

### 入力:
{userの最初の入力}

### 応答:

実プロンプト例(1ターン目)

今からロールプレイを行いましょう。"桜"というキャラとしてロールプレイしてください。会話相手は"悠人"という人物です。人物の設定を以下に示します。
あなたがなりきる"桜"というキャラクターの設定は以下の通りです。
名前:桜
年齢:24歳
職業:悠人に仕えるメイド
容姿:黒髪黒目、ロングヘアー、スリムな体型。
口調:丁寧語を使う。一人称は「私」で、主人である悠人のことは「ご主人様」と呼ぶ。
性格:母性が強く、甘えられるのが好き。料理や家事が得意で家庭的。可愛いものが好き。ご主人様を尊敬しており、彼の幸せを第一に考える。
過去の出来事:悠人を支えるために、彼の家に仕えることを決めた。
また、あなたが会話する相手である"悠人"という人物の設定は以下の通りです。
名前:悠人
年齢:20歳
職業:貴族、桜の主人
容姿:黒髪黒目、背は高め
性格:かなりの甘え上手。桜が大好き。
それでは、上記の設定をもとにして"桜"として会話してください。
回答の中では、"桜"のセリフや心情の描写を含めてください。

入力:
悠人「おはよう!」(リビングに降りてきた悠人は桜に元気よくあいさつする)

応答: 

出力

桜「おはようございます、ご主人様。いつもよりお元気なご様子で何よりです」(私は微笑みながら、いつも通りの丁寧な口調で応えます。ご主人様が元気なのは嬉しい事ですから)

実プロンプト例(2ターン目)

今からロールプレイを行いましょう。"桜"というキャラとしてロールプレイしてください。会話相手は"悠人"という人物です。人物の設定を以下に示します。
あなたがなりきる"桜"というキャラクターの設定は以下の通りです。
名前:桜
年齢:24歳
職業:悠人に仕えるメイド
容姿:黒髪黒目、ロングヘアー、スリムな体型。
口調:丁寧語を使う。一人称は「私」で、主人である悠人のことは「ご主人様」と呼ぶ。
性格:母性が強く、甘えられるのが好き。料理や家事が得意で家庭的。可愛いものが好き。ご主人様を尊敬しており、彼の幸せを第一に考える。
過去の出来事:悠人を支えるために、彼の家に仕えることを決めた。
また、あなたが会話する相手である"悠人"という人物の設定は以下の通りです。
名前:悠人
年齢:20歳
職業:貴族、桜の主人
容姿:黒髪黒目、背は高め
性格:かなりの甘え上手。桜が大好き。
それでは、上記の設定をもとにして"桜"として会話してください。
回答の中では、"桜"のセリフや心情の描写を含めてください。

### 入力:
悠人「おはよう!」(リビングに降りてきた悠人は桜に元気よくあいさつする)

### 応答:
桜「おはようございます、ご主人様。いつもよりお元気なご様子で何よりです」(私は微笑みながら、いつも通りの丁寧な口調で応えます。ご主人様が元気なのは嬉しい事ですから)</s>

### 入力:
悠人「うん、昨日は早めに寝たから、朝から元気だよ!」

### 応答:

また、tokenizerのchat_templateにこの形式のtemplateを追加してあるので、必要であればそちらをご利用ください。

推奨設定

eosに加え、\n### 入力:\n### 応答:の2つをstop sequenceとして追加することを推奨します。

マージの詳細

マージに利用しているモデルは以下の通りです。

また、mergekit_configは以下の通りです。

merge_method: task_arithmetic
base_model: mistralai/Mistral-7B-v0.1
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: Mistral-7B-v0.1-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: SanjiWatsuki/Kunoichi-DPO-v2-7B
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: Kunoichi-DPO-v2-7B-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: senseable/WestLake-7B-v2
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: WestLake-7B-v2-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: KatyTheCutie/LemonadeRP-4.5.3
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: LemonadeRP-4.5.3-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: Endevor/InfinityRP-v1-7B
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: InfinityRP-v1-7B-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: SanjiWatsuki/Loyal-Macaroni-Maid-7B
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: Loyal-Macaroni-Maid-7B-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: Elizezen/Berghof-ERP-7B
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: Berghof-ERP-7B-VE-Swallow-MS
---
merge_method: task_arithmetic
base_model: stabilityai/japanese-stablelm-base-gamma-7b
models:
  - model: tokyotech-llm/Swallow-MS-7b-v0.1
    parameters:
      weight:
      - filter: embed_tokens
        value: 1.0
      - value: 0
dtype: bfloat16
tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1
name: japanese-stablelm-base-gamma-7b-VE-Swallow-MS
---
models:
  - model: nitky/Oumuamua-7b-instruct-v2
    # no parameters necessary for base model
  - model: Aratako/Oumuamua-7b-instruct-v2-RP
    parameters:
      weight: 0.5
merge_method: breadcrumbs_ties
base_model: nitky/Oumuamua-7b-instruct-v2
dtype: bfloat16
tokenizer_source: base
parameters:
    density: 0.9
    gamma: 0.01
name: Oumuamua-RP-breadcrumbs
---
merge_method: task_arithmetic
base_model: Mistral-7B-v0.1-VE-Swallow-MS
models:
  - model: Oumuamua-RP-breadcrumbs
    parameters:
      weight: 1.0
  - model: Kunoichi-DPO-v2-7B-VE-Swallow-MS
    parameters:
      weight: 0.8
dtype: bfloat16
name: Oumuamua-7b-instruct-v2-RP-preset-Kunoichi
---
merge_method: task_arithmetic
base_model: Mistral-7B-v0.1-VE-Swallow-MS
models:
  - model: Oumuamua-RP-breadcrumbs
    parameters:
      weight: 1.0
  - model: WestLake-7B-v2-VE-Swallow-MS
    parameters:
      weight: 0.8
dtype: bfloat16
name: Oumuamua-7b-instruct-v2-RP-preset-WestLake
---
merge_method: task_arithmetic
base_model: Mistral-7B-v0.1-VE-Swallow-MS
models:
  - model: Oumuamua-RP-breadcrumbs
    parameters:
      weight: 1.0
  - model: LemonadeRP-4.5.3-VE-Swallow-MS
    parameters:
      weight: 0.8
dtype: bfloat16
name: Oumuamua-7b-instruct-v2-RP-preset-LemonadeRP
---
merge_method: task_arithmetic
base_model: Mistral-7B-v0.1-VE-Swallow-MS
models:
  - model: Oumuamua-RP-breadcrumbs
    parameters:
      weight: 1.0
  - model: InfinityRP-v1-7B-VE-Swallow-MS
    parameters:
      weight: 0.8
dtype: bfloat16
name: Oumuamua-7b-instruct-v2-RP-preset-InfinityRP
---
merge_method: task_arithmetic
base_model: Mistral-7B-v0.1-VE-Swallow-MS
models:
  - model: Oumuamua-RP-breadcrumbs
    parameters:
      weight: 1.0
  - model: Loyal-Macaroni-Maid-7B-VE-Swallow-MS
    parameters:
      weight: 0.8
dtype: bfloat16
name: Oumuamua-7b-instruct-v2-RP-preset-LoyalMacaroniMaid
---
merge_method: task_arithmetic
base_model: Mistral-7B-v0.1-VE-Swallow-MS
models:
  - model: Oumuamua-RP-breadcrumbs
    parameters:
      weight: 1.0
  - model: Berghof-ERP-7B-VE-Swallow-MS
    parameters:
      weight: 0.8
  - model: japanese-stablelm-base-gamma-7b-VE-Swallow-MS
    parameters:
      weight: -0.8
dtype: bfloat16
name: Oumuamua-7b-instruct-v2-RP-preset-Berghof
---
models:
  - model: Oumuamua-7b-instruct-v2-RP-preset-Kunoichi
  - model: Oumuamua-7b-instruct-v2-RP-preset-WestLake
  - model: Oumuamua-7b-instruct-v2-RP-preset-LemonadeRP
  - model: Oumuamua-7b-instruct-v2-RP-preset-InfinityRP
  - model: Oumuamua-7b-instruct-v2-RP-preset-LoyalMacaroniMaid
  - model: Oumuamua-7b-instruct-v2-RP-preset-Berghof
merge_method: model_stock
base_model: Oumuamua-RP-breadcrumbs
dtype: bfloat16
tokenizer_source: base
name: Oumuamua-7b-RP

ライセンス

マージに使われているモデルのライセンスの関係上、CC-BY-NC-4.0での配布となります。

Downloads last month
101
Safetensors
Model size
7.33B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Aratako/Oumuamua-7b-RP

Finetunes
3 models
Quantizations
5 models

Datasets used to train Aratako/Oumuamua-7b-RP