Edit model card

pfnet-nekomata-14b-pfn-qfin-gguf

pfnetさんが公開しているnekomata-14b-pfn-qfinのggufフォーマット変換版です。

imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

ライセンス

tongyi-qianwenライセンスになります。
ご使用前にライセンスをご確認ください

他のモデル

mmnga/pfnet-nekomata-14b-pfn-qfin-gguf
mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf

Usage

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'pfnet-nekomata-14b-pfn-qfin-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:'
Downloads last month
1,343
GGUF
Model size
14.2B params
Architecture
qwen

1-bit

2-bit

3-bit

4-bit

5-bit

6-bit

Inference API
Unable to determine this model's library. Check the docs .

Dataset used to train mmnga/pfnet-nekomata-14b-pfn-qfin-gguf