Update README.md
Browse files
README.md
CHANGED
@@ -11,7 +11,7 @@ base_model:
|
|
11 |
|
12 |
## Описание
|
13 |
|
14 |
-
Эта модель машинного перевода предназначена для перевода текста с
|
15 |
|
16 |
Проект был создан в рамках Национального корпуса мансийского языка. Его цель - создать корпус параллельных предложений для языковой пары русский-мансийский, для сохранения и развития коренных малочисленных народов севера.
|
17 |
|
@@ -36,18 +36,18 @@ pip install transformers torch
|
|
36 |
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
37 |
|
38 |
# Замените 'your_model_name' на имя модели, которую вы хотите использовать
|
39 |
-
tokenizer = AutoTokenizer.from_pretrained(
|
40 |
-
model = AutoModelForSeq2SeqLM.from_pretrained(
|
41 |
```
|
42 |
|
43 |
### Пример перевода
|
44 |
|
45 |
```python
|
46 |
# Пример текста для перевода
|
47 |
-
text =
|
48 |
|
49 |
# Токенизация текста
|
50 |
-
inputs = tokenizer(text, return_tensors
|
51 |
|
52 |
# Перевод текста
|
53 |
outputs = model.generate(**inputs)
|
|
|
11 |
|
12 |
## Описание
|
13 |
|
14 |
+
Эта модель машинного перевода предназначена для перевода текста с мансийского на русский язык. Модель основана на модели `facebook/nllb200-3.3B`. Проект находится в стадии разработки и совершенствования.
|
15 |
|
16 |
Проект был создан в рамках Национального корпуса мансийского языка. Его цель - создать корпус параллельных предложений для языковой пары русский-мансийский, для сохранения и развития коренных малочисленных народов севера.
|
17 |
|
|
|
36 |
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
37 |
|
38 |
# Замените 'your_model_name' на имя модели, которую вы хотите использовать
|
39 |
+
tokenizer = AutoTokenizer.from_pretrained("Neira/nllb-200-3.3B-ru-mns-2.0.2", tgt_lang="rus_Cyrl", src_lang="mancy_Cyrl")
|
40 |
+
model = AutoModelForSeq2SeqLM.from_pretrained("Neira/nllb-200-3.3B-ru-mns-2.0.2")
|
41 |
```
|
42 |
|
43 |
### Пример перевода
|
44 |
|
45 |
```python
|
46 |
# Пример текста для перевода
|
47 |
+
text = "Ма̄гвит акв ка̄сыл айēв"
|
48 |
|
49 |
# Токенизация текста
|
50 |
+
inputs = tokenizer(text, return_tensors="pt")
|
51 |
|
52 |
# Перевод текста
|
53 |
outputs = model.generate(**inputs)
|