yuyijiong commited on
Commit
4be787e
1 Parent(s): 97d109f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +34 -0
README.md CHANGED
@@ -71,3 +71,37 @@ pipeline_tag: text-generation
71
  ```19世纪和20世纪初的欧洲和美国是第一波女权主义时期,其主要目标是通过法律争取女性权利,特别是选举权。 1848年,“女权主义”一词首次出现在《美国宣言》中。该词由玛莎·李尔 (Martha Lear) 于 1968 年 3 月在《纽约时报》杂志上撰文时创造。
72
  综上所述,问题的答案是:19世纪和20世纪初。
73
  以上回答参考了文档-43。```
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
71
  ```19世纪和20世纪初的欧洲和美国是第一波女权主义时期,其主要目标是通过法律争取女性权利,特别是选举权。 1848年,“女权主义”一词首次出现在《美国宣言》中。该词由玛莎·李尔 (Martha Lear) 于 1968 年 3 月在《纽约时报》杂志上撰文时创造。
72
  综上所述,问题的答案是:19世纪和20世纪初。
73
  以上回答参考了文档-43。```
74
+
75
+ 使用方法:
76
+ ```python
77
+ from transformers import AutoModelForCausalLM, AutoTokenizer
78
+ from transformers.generation import GenerationConfig
79
+ import os
80
+ os.environ["CUDA_VISIBLE_DEVICES"] = "0"
81
+
82
+ model_path="yuyijiong/atom-7b-chat-16k"
83
+ tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
84
+
85
+ # use auto mode, automatically select precision based on the device.
86
+ model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", load_in_8bit=True).eval()
87
+
88
+ question="中国的首都是什么?"
89
+ input_text = "<s>Human: " + question + "\n</s><s>Assistant: "
90
+ input_ids = tokenizer(input_text, return_tensors='pt').input_ids.to(model.device)
91
+
92
+ with torch.no_grad():
93
+ with torch.autocast('cuda'):
94
+ output = model.generate(input_ids=input_ids,
95
+ max_new_tokens=max_new_tokens,
96
+ do_sample=True,
97
+ temperature=0.85,
98
+ top_k=None,
99
+ top_p=0.9,
100
+ use_cache=True,
101
+ **kwargs)
102
+
103
+ reply = tokenizer.decode(output[0], skip_special_tokens=False)
104
+ reply_return=reply.split('Assistant:')[-1].replace('</s>', '')
105
+ print('模型回答:', reply_return)
106
+
107
+ ```