File size: 6,120 Bytes
0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf e012485 0bbcccf 7f17b84 0bbcccf 5a3d034 0bbcccf 7f17b84 0bbcccf e012485 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 |
import os
import time
import spaces
from threading import Thread
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, TextIteratorStreamer
import gradio as gr
MODEL = "weblab-GENIAC/Tanuki-8B-dpo-v1.0"
HF_TOKEN = os.environ.get("HF_TOKEN", None)
TITLE = "<h1><center>Tanuki-8B-dpo-v1.0</center></h1>"
DESCRIPTION = """
<div class="model-description">
<p>
🦡 <a href="https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0"><b>Tanuki 8B</b>(weblab-GENIAC/Tanuki-8B-dpo-v1.0)</a>は、
経産省及びNEDOが推進する日本国内の生成AI基盤モデル開発を推進する「GENIAC」プロジェクトにおいて、松尾・岩澤研究室が開発・公開したLLMとなります。
本プロジェクトは松尾研が提供する大規模言語モデル講座(2023年9月開催、2,000名が受講)の修了生及び一般公募によって集まった有志の開発者(⺠間企業・研究者・学⽣で構成)が、最新の研究成果や技術的な知見を取り入れ、開発を行ったモデルです。
</p>
<p>🤖 このデモでは、Tanuki 8Bとチャットを行うことが可能です。(注:フルバーションの<a href="https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0">Tanuki 8x8B</a>ではございません。)</p>
<p>📄 モデルの詳細については、<a href="http://weblab.t.u-tokyo.ac.jp/2024-08-30">プレスリリース</a>をご覧ください。お問い合わせは<a href="https://weblab.t.u-tokyo.ac.jp/contact/">こちら</a>までどうぞ。</p>
<p>関連サイト: <a href="https://weblab.t.u-tokyo.ac.jp/geniac_llm">GENIAC 松尾研 LLM開発プロジェクト</a></p>
</div>
"""
PLACEHOLDER = """
<div class="image-placeholder">
<img src="https://weblab.t.u-tokyo.ac.jp/wp-content/uploads/2024/06/GENIAC-image-cutting3-1.jpg" alt="Tanuki-8B Image">
<h1>Tanuki-8B</h1>
</div>
"""
CSS = """
.duplicate-button {
margin: auto !important;
color: white !important;
background: black !important;
border-radius: 100vh !important;
}
h3 {
text-align: center;
}
.model-description {
padding: 0.5em 1em;
margin: 2em 0;
border-top: solid 5px #5d627b;
box-shadow: 0 1px 1px rgba(0, 0, 0, 0.22);
border-radius: 5px;
}
.model-description p {
margin: 0;
padding: 0;
color: #5d627b;
}
.image-placeholder {
text-align: center;
display: flex;
flex-direction: column;
align-items: center;
}
.image-placeholder img {
width: 100%;
height: auto;
opacity: 0.55;
}
.image-placeholder h1 {
font-size: 28px;
margin-bottom: 2px;
opacity: 0.55;
}
"""
tokenizer = AutoTokenizer.from_pretrained(MODEL)
model = AutoModelForCausalLM.from_pretrained(
MODEL,
torch_dtype=torch.bfloat16,
device_map="auto",
)
print(model)
@spaces.GPU()
def stream_chat(
message: str,
history: list,
system_prompt: str,
temperature: float = 0.3,
max_new_tokens: int = 1024,
top_p: float = 1.0,
top_k: int = 20,
):
print(f'message: {message}')
print(f'history: {history}')
conversation = [
{"role": "system", "content": system_prompt}
]
for prompt, answer in history:
conversation.extend([
{"role": "user", "content": prompt},
{"role": "assistant", "content": answer},
])
conversation.append({"role": "user", "content": message})
input_ids = tokenizer.apply_chat_template(conversation, add_generation_prompt=True, return_tensors="pt").to(model.device)
streamer = TextIteratorStreamer(tokenizer, timeout=60.0, skip_prompt=True, skip_special_tokens=True)
generate_kwargs = dict(
input_ids=input_ids,
max_new_tokens = max_new_tokens,
do_sample = False if temperature == 0 else True,
top_p = top_p,
top_k = top_k,
temperature = temperature,
streamer=streamer,
)
with torch.no_grad():
thread = Thread(target=model.generate, kwargs=generate_kwargs)
thread.start()
buffer = ""
for new_text in streamer:
buffer += new_text
yield buffer
chatbot = gr.Chatbot(height=600, placeholder=PLACEHOLDER)
with gr.Blocks(css=CSS, theme="soft") as demo:
gr.HTML(TITLE)
gr.DuplicateButton(value="Duplicate Space for private use", elem_classes="duplicate-button")
gr.Markdown(DESCRIPTION)
gr.ChatInterface(
fn=stream_chat,
chatbot=chatbot,
fill_height=True,
additional_inputs_accordion=gr.Accordion(label="⚙️ Parameters", open=True, render=False),
additional_inputs=[
gr.Textbox(
value="以下は、タスクを説明する指示です。要求を適切に満たす応答を書きなさい。",
label="System Prompt",
render=False,
),
gr.Slider(
minimum=0,
maximum=1,
step=0.1,
value=0,
label="Temperature",
render=False,
),
gr.Slider(
minimum=128,
maximum=8192,
step=1,
value=1024,
label="Max new tokens",
render=False,
),
gr.Slider(
minimum=0.0,
maximum=1.0,
step=0.1,
value=1.0,
label="top_p",
render=False,
),
gr.Slider(
minimum=1,
maximum=20,
step=1,
value=20,
label="top_k",
render=False,
),
],
examples=[
["日本で有名なものと言えば"],
["人工知能とは何ですか"],
["C言語で素数を判定するコードを書いて"],
["たぬきが主人公の物語を書いて"]
],
cache_examples=False,
)
if __name__ == "__main__":
demo.launch() |