Edit model card

line-corporation/japanese-large-lm-3.6b-instruction-sft

line-corporationさんが公開しているjapanese-large-lm-3.6b-instruction-sftのgguf変換版です。

他モデルはこちら
GPT-NEOX
mmnga/line-corp-japanese-large-lm-3.6b-gguf
mmnga/line-corp-japanese-large-lm-3.6b-instruction-sft-gguf

GPT-2
mmnga/line-corp-japanese-large-lm-1.7b-gguf
mmnga/line-corp-japanese-large-lm-1.7b-instruction-sft-gguf

注意:こちらはブランチで試用になります。llama.cpp本家にgptneox, gpt2が実装された時に、このggufファイルが使用できない可能性があります。

GitHubリポジトリの readme はこちら

Usage (試用)

git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j
./main -m 'line-corp-japanese-large-lm-3.6b-instruction-sft-q4_0.gguf' -n 128 -p '吾輩は猫である。名前は実を言うと、'  --top_p 0.9 --temp 0.7 --repeat-penalty 1.1

CUBLAS

LLAMA_CUBLAS=1 make -j
./main -m 'line-corp-japanese-large-lm-3.6b-instruction-sft-q4_0.gguf' -n 128 -p '吾輩は猫である。名前は実を言うと、' -ngl 32

従来のCPU実行

git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j gptneox
./gptneox -m 'line-corp-japanese-large-lm-3.6b-instruction-sft-q4_0.gguf' -n 128 -p 'ユーザー: 吾輩って猫ですか? システム: '
Downloads last month
99
GGUF
Model size
3.71B params
Architecture
gptneox

4-bit

5-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .