ai-forever
commited on
Commit
•
757bcec
1
Parent(s):
88c1f44
Update README.md
Browse files
README.md
CHANGED
@@ -39,7 +39,7 @@ input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
|
|
39 |
outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
|
40 |
print(tokenizer.decode(outputs[0][1:]))
|
41 |
|
42 |
-
# print result: с того, что он был в
|
43 |
|
44 |
#Prefix <SC1>
|
45 |
lm_text='<SC1>Принялся Кутузов рассказывать свою историю . Началось с того, что он был в армии, служил в артиллерии.'
|
@@ -47,15 +47,15 @@ input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
|
|
47 |
outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
|
48 |
print(tokenizer.decode(outputs[0][1:]))
|
49 |
|
50 |
-
#print result: '<extra_id_0
|
51 |
|
52 |
-
# Prefix <
|
53 |
-
lm_text='<
|
54 |
input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
|
55 |
outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True,max_length=100)
|
56 |
print(tokenizer.decode(outputs[0][1:]))
|
57 |
|
58 |
-
#print result:'<extra_id_0
|
59 |
|
60 |
```
|
61 |
# Authors
|
|
|
39 |
outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
|
40 |
print(tokenizer.decode(outputs[0][1:]))
|
41 |
|
42 |
+
# print result: с того, что он был в плену у немцев.</s>
|
43 |
|
44 |
#Prefix <SC1>
|
45 |
lm_text='<SC1>Принялся Кутузов рассказывать свою историю . Началось с того, что он был в армии, служил в артиллерии.'
|
|
|
47 |
outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
|
48 |
print(tokenizer.decode(outputs[0][1:]))
|
49 |
|
50 |
+
#print result: '<extra_id_0>, как он жил</s>'
|
51 |
|
52 |
+
# Prefix <SC5>
|
53 |
+
lm_text='<SC5>Принялся Кутузов рассказывать свою историю . Началось с того, что он был в армии, служил в артиллерии.'
|
54 |
input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
|
55 |
outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True,max_length=100)
|
56 |
print(tokenizer.decode(outputs[0][1:]))
|
57 |
|
58 |
+
#print result: '<extra_id_0>, как он был в армии</s>'
|
59 |
|
60 |
```
|
61 |
# Authors
|