docs: add README
Browse files
README.md
CHANGED
@@ -1,3 +1,76 @@
|
|
1 |
---
|
2 |
license: mit
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
license: mit
|
3 |
+
language:
|
4 |
+
- ru
|
5 |
+
- en
|
6 |
+
datasets:
|
7 |
+
- d0rj/samsum-ru
|
8 |
+
- IlyaGusev/gazeta
|
9 |
+
- zjkarina/matreshka
|
10 |
+
- rcp-meetings/rudialogsum_v2
|
11 |
+
- GEM/wiki_lingua
|
12 |
+
- mlsum
|
13 |
+
tags:
|
14 |
+
- summarization
|
15 |
+
- dialogue-summarization
|
16 |
+
- text2text-generation
|
17 |
+
- mbart
|
18 |
+
- mbart-50
|
19 |
+
widget:
|
20 |
+
- text: >
|
21 |
+
Актуальность проблемы. Электронная информация играет все большую роль во всех сферах жизни современного общества. В последние годы объем научно-технической текстовой информации в электронном виде возрос настолько, что возникает угроза обесценивания этой информации в связи с трудностями поиска необходимых сведений среди множества доступных текстов. Развитие информационных ресурсов Интернет многократно усугубило проблему информационной перегрузки. В этой ситуации особенно актуальными становятся методы автоматизации реферирования текстовой информации, то есть методы получения сжатого представления текстовых документов–рефератов (аннотаций). Постановка проблемы автоматического реферирования текста и соответственно попытки ее решения с использованием различных подходов предпринимались многими исследователями. История применения вычислительной техники для реферирования насчитывает уже более 50 лет и связана с именами таких исследователей, как Г.П. Лун, В.Е. Берзон, И.П. Cевбо, Э.Ф. Скороходько, Д.Г. Лахути, Р.Г. Пиотровский и др. За эти годы выработаны многочисленные подходы к решению данной проблемы, которые достаточно четко подразделяются на два направления: автоматическое реферирование, основанное на экстрагировании из первичных документов с помощью определенных формальных признаков «наиболее информативных» фраз (фрагментов), совокупность которых образует некоторый экстракт; автоматическое реферирование, основанное на выделении из текстов с помощью специальных информационных языков наиболее существенной информации и порождении новых текстов (рефератов), содержательно обобщающих первичные документы.
|
22 |
+
- text: >
|
23 |
+
Первую многоножку, у которой более тысячи ног, обнаружили в австралийских пещерах биологи, изучавшие там подземные воды. Предыдущей рекордсменкой по количеству ног была 700-ногая многоножка. Новый вид имеет длинное тонкое тело, похожее на нить, и большое количество конечностей, по-видимому, дает преимущества для быстрого перемещения и проникновения в труднодоступные места — ученые полагают, такая многоножка может спокойно перемещаться по трещинам в камнях. Австралия известна своими огромными и жутковатыми животными вроде 25-сантиметровых пауков. Теперь список пугающих членистоногих пополнился самой «многоногой» в мире многоножкой, у которой более тысячи ног. Необычное животное обнаружила группа исследователей из Австралии и США в пещерах на западе страны. Подробнее многоножку ученые описали в статье в журнале Scientific Reports. Исследователи занимались оценкой воздействия подземных вод на окружающую среду в зоне добычи полезных ископаемых на запад�� страны, когда наткнулись на новый вид многоножек. В отличие от большинства сородичей, живущих на поверхности, эти многоножки обитали в пещерах на глубине до 60 метров. Новый вид исследователи назвали Eumillipes persephone, в честь Персефоны — древнегреческой богини подземного мира. У многоножки оказалось 1306 ног — больше, чем у любого другого известного вида. Предыдущей рекордсменкой была калифорнийская Illacme plenipes, у которой насчитывалось до 750 ног. «Эти животные были настолько уникальны, — говорит биолог Бруно Бузатто. — Как только я понял, какой длины они были... Стало ясно, что это что-то совершенно новое». У Е. persephone нитевидное тело длиной около 9,5 см и шириной всего миллиметр, состоящее из 330 сегментов, короткие ноги и конусообразная голова. Как и другие животные, живущие в постоянной темноте, эти многоножки бледны и слепы. Энтомолог Пол Марек сравнивает ее с белой нитью, выдернутой из рубашки. Чтобы посчитать количество ног, ученым пришлось сначала снять многоножку в высоком разрешении, а затем закрашивать на фото каждый десяток ног другим цветом. (https://www.gazeta.ru/science/2021/12/17_a_14325355.shtml)
|
24 |
---
|
25 |
+
|
26 |
+
# ru-mbart-large-summ
|
27 |
+
|
28 |
+
## Model
|
29 |
+
|
30 |
+
Model forked from [ru-bart-large](https://huggingface.co/sn4kebyt3/ru-bart-large) which is smaller version of the [facebook/mbart-large-50](https://huggingface.co/facebook/mbart-large-50) with only Russian and English embeddings.
|
31 |
+
|
32 |
+
## Data
|
33 |
+
|
34 |
+
- [d0rj/samsum-ru](https://huggingface.co/datasets/d0rj/samsum-ru)
|
35 |
+
- [IlyaGusev/gazeta](https://huggingface.co/datasets/IlyaGusev/gazeta)
|
36 |
+
- [zjkarina/matreshka](https://huggingface.co/datasets/zjkarina/matreshka)
|
37 |
+
- [rcp-meetings/rudialogsum_v2](https://huggingface.co/datasets/rcp-meetings/rudialogsum_v2)
|
38 |
+
- [GEM/wiki_lingua](https://huggingface.co/datasets/GEM/wiki_lingua)
|
39 |
+
- [mlsum](https://huggingface.co/datasets/mlsum)
|
40 |
+
|
41 |
+
All 'train' subsets was concatenated and shuffled with seed `1000 - 7`.
|
42 |
+
|
43 |
+
Train subset = 155678 rows.
|
44 |
+
|
45 |
+
## Metrics
|
46 |
+
|
47 |
+
Evaluation on 10% of concatenated 'validation' subsets = 1458 rows.
|
48 |
+
|
49 |
+
See [WandB logs](https://wandb.ai/d0rj/ru-mbart-large-summ/overview).
|
50 |
+
|
51 |
+
See report at **REPORT WIP**.
|
52 |
+
|
53 |
+
## Usage
|
54 |
+
|
55 |
+
```python
|
56 |
+
from transformers import pipeline
|
57 |
+
|
58 |
+
|
59 |
+
pipe = pipeline('summarization', model='d0rj/ru-mbart-large-summ')
|
60 |
+
pipe(text)
|
61 |
+
```
|
62 |
+
|
63 |
+
```python
|
64 |
+
import torch
|
65 |
+
from transformers import AutoTokenizer, MBartModel
|
66 |
+
|
67 |
+
|
68 |
+
tokenizer = AutoTokenizer.from_pretrained('d0rj/ru-mbart-large-summ')
|
69 |
+
model = MBartModel.from_pretrained('d0rj/ru-mbart-large-summ')
|
70 |
+
|
71 |
+
inputs = tokenizer('Всё в порядке, мимо двигал Утром прозвенел будильник', return_tensors='pt')
|
72 |
+
with torch.no_grad():
|
73 |
+
outputs = model(**inputs)
|
74 |
+
|
75 |
+
last_hidden_states = outputs.last_hidden_state
|
76 |
+
```
|