End of training
Browse files- 1_Pooling/config.json +10 -0
- README.md +917 -0
- config.json +27 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +64 -0
- training_args.bin +3 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 312,
|
3 |
+
"pooling_mode_cls_token": true,
|
4 |
+
"pooling_mode_mean_tokens": false,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,917 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
base_model: cointegrated/rubert-tiny2
|
3 |
+
datasets: []
|
4 |
+
language: []
|
5 |
+
library_name: sentence-transformers
|
6 |
+
metrics:
|
7 |
+
- cosine_accuracy
|
8 |
+
- cosine_accuracy_threshold
|
9 |
+
- cosine_f1
|
10 |
+
- cosine_f1_threshold
|
11 |
+
- cosine_precision
|
12 |
+
- cosine_recall
|
13 |
+
- cosine_ap
|
14 |
+
- dot_accuracy
|
15 |
+
- dot_accuracy_threshold
|
16 |
+
- dot_f1
|
17 |
+
- dot_f1_threshold
|
18 |
+
- dot_precision
|
19 |
+
- dot_recall
|
20 |
+
- dot_ap
|
21 |
+
- manhattan_accuracy
|
22 |
+
- manhattan_accuracy_threshold
|
23 |
+
- manhattan_f1
|
24 |
+
- manhattan_f1_threshold
|
25 |
+
- manhattan_precision
|
26 |
+
- manhattan_recall
|
27 |
+
- manhattan_ap
|
28 |
+
- euclidean_accuracy
|
29 |
+
- euclidean_accuracy_threshold
|
30 |
+
- euclidean_f1
|
31 |
+
- euclidean_f1_threshold
|
32 |
+
- euclidean_precision
|
33 |
+
- euclidean_recall
|
34 |
+
- euclidean_ap
|
35 |
+
- max_accuracy
|
36 |
+
- max_accuracy_threshold
|
37 |
+
- max_f1
|
38 |
+
- max_f1_threshold
|
39 |
+
- max_precision
|
40 |
+
- max_recall
|
41 |
+
- max_ap
|
42 |
+
pipeline_tag: sentence-similarity
|
43 |
+
tags:
|
44 |
+
- sentence-transformers
|
45 |
+
- sentence-similarity
|
46 |
+
- feature-extraction
|
47 |
+
- generated_from_trainer
|
48 |
+
- dataset_size:1166178
|
49 |
+
- loss:ContrastiveLoss
|
50 |
+
widget:
|
51 |
+
- source_sentence: Одежда и обувь Обувь Повседневная обувь Кеды, слипоны, сникеры
|
52 |
+
Gore-Tex Без каблука 40 Женский Мужской Шнурки На любой сезон Натуральная кожа
|
53 |
+
Мембранные материалы Текстиль Базовая коллекция Нет Нейтральная Dr. Martens Великобритания
|
54 |
+
Rubber Китай ЭВА (вспененный полимер) F Взрослая черный Анатомическая стелька
|
55 |
+
Контрастная строчка -20°С~25°С Свободная Бадминтон Бег Бейсбол Треккинг Натуральная
|
56 |
+
кожа 25cm Сникеры Dr. Martens
|
57 |
+
sentences:
|
58 |
+
- Одежда и обувь Обувь Повседневная обувь Кеды, слипоны, сникеры Gore-Tex Без каблука
|
59 |
+
40 Женский Мужской Шнурки На любой сезон Натуральная кожа Мембранные материалы
|
60 |
+
Текстиль Базовая коллекция Нет Нейтральная Dr. Martens Великобритания Rubber Китай
|
61 |
+
ЭВА (вспененный полимер) F Взрослая черный Анатомическая стелька Контрастная строчка
|
62 |
+
-20°С~25°С Свободная Бадминтон Бег Бейсбол Треккинг Натуральная кожа 25cm Сникеры
|
63 |
+
Dr. Martens
|
64 |
+
- 'Одежда и обувь Одежда Белье Носки, комплект носков усиленная пятка усиленный
|
65 |
+
мысок Комплект носков Россия 43 44 Мужской Пакет На любой сезон Стирать наизнанку
|
66 |
+
при температуре до 40°. Гладить при температуре до 110°. Вертикальная сушка без
|
67 |
+
отжима и без сушильной машины. Запрещены: отбеливание и химчистка! черный Хлопок
|
68 |
+
Классический Офис Базовая коллекция 27 77% хлопок, 21% полиамид, 2% эластан Однотонный
|
69 |
+
29 (43-44) 10 пар АЛЬТАИР Комплект носков АЛЬТАИР, 10 пар'
|
70 |
+
- Одежда и обувь Обувь Повседневная обувь Сапоги Каблук + платформа 39 Женский Маломерят
|
71 |
+
на один размер Молния Зима Байка Овчина Осень-зима 2022 Нет 4.5 2.5 Нейтральная
|
72 |
+
Kezu Полимерный материал Китай Овчина 47 7 Взрослая черный Круглый нос Толстая
|
73 |
+
подошва Тракторная подошва черный Нормальная Замша 40 Сапоги Kezu
|
74 |
+
- source_sentence: "EPG Аптека Лекарственные средства Лекарственное средство безрецептурное\
|
75 |
+
\ Парацетамол Лекарственное средство безрецептурное При одновременном применении\
|
76 |
+
\ с индукторами микросомальных ферментов печени, средствами, обладающими гепатотоксическим\
|
77 |
+
\ действием, возникает риск усиления гепатотоксического действия парацетамола.При\
|
78 |
+
\ одновременном применении с антикоагулянтами возможно небольшое или умеренно\
|
79 |
+
\ выраженное повышение протромбинового времени.При одновременном применении с\
|
80 |
+
\ антихолинергическими средствами возможно уменьшение всасывания парацетамола.При\
|
81 |
+
\ одновременном применении с пероральными контрацептивами ускоряется выведение\
|
82 |
+
\ парацетамола из организма и возможно уменьшение его анальгетического действия.При\
|
83 |
+
\ одновременном применении с урикозурическими средствами снижается их эффективность.При\
|
84 |
+
\ одновременном применении активированного угля снижается биодоступность парацетамола.При\
|
85 |
+
\ одновременном применении с диазепамом возможно уменьшение экскреции диазепама.Имеются\
|
86 |
+
\ сообщения о возможности усиления миелодепрессивного эффекта зидовудина при одновременном\
|
87 |
+
\ применении с парацетамолом. Описан случай тяжелого токсического поражения печени.Описаны\
|
88 |
+
\ случаи проявлений токсического действия парацетамола при одновременном применении\
|
89 |
+
\ с изониазидом.При одновременном применении с карбамазепином, фенитоином, фенобарбиталом,\
|
90 |
+
\ примидоном уменьшается эффективность парацетамола, что обусловлено повышением\
|
91 |
+
\ его метаболизма (процессов глюкуронизации и окисления) и выведения из организма.\
|
92 |
+
\ Описаны случаи гепатотоксичности при одновременном применении парацетамола и\
|
93 |
+
\ фенобарбитала.При применении колестирамина в течение периода менее 1 ч после\
|
94 |
+
\ приема парацетамола возможно уменьшение абсорбции последнего.При одновременном\
|
95 |
+
\ применении с ламотриджином умеренно повышается выведение ламотриджина из организма.При\
|
96 |
+
\ одновременном применении с метоклопрамидом возможно увеличение абсорбции парацетамола\
|
97 |
+
\ и повышение его концентрации в плазме крови.При одновременном применении с пробенецидом\
|
98 |
+
\ возможно уменьшение клиренса парацетамола; с рифампицином, сульфинпиразоном\
|
99 |
+
\ - возможно повышение клиренса парацетамола вследствие повышения его метаболизма\
|
100 |
+
\ в печени.При одновременном применении с этинилэстрадиолом повышается всасывание\
|
101 |
+
\ парацетамола из кишечника. Если Высчитаете, что ребенок принял больше рекомендованной\
|
102 |
+
\ дозы, немедленно обратитеськ врачу, даже если ребенок чувствует себя хорошо.\
|
103 |
+
\ Передозировка парацетамоламожет вызвать развитие печеночной недостаточности.Симптомами\
|
104 |
+
\ острогоотравления парацетамолом являются тошнота, рвота, боли в желудке, анорексия,\
|
105 |
+
\ нарушение метаболизма глюкозы (головокружение, потеря сознания, потливость),\
|
106 |
+
\ бледность кожных покровов, метаболический ацидоз. Через 1–2 суток определяютсяпризнаки\
|
107 |
+
\ поражения печени (болезненность в области печени, повышение активностипеченочных\
|
108 |
+
\ ферментов, концентрации билирубина и снижение содержанияпротромбина). Клинические\
|
109 |
+
\ симптомы повреждения печени достигают максимума на3–4 день. В тяжелых случаях\
|
110 |
+
\ передозировки развивается печеночнаянедостаточность, прогрессирующая энцефалопатия,\
|
111 |
+
\ коматозное состояние, смерть.Возможно развитие острой почечной недостаточности\
|
112 |
+
\ с тубулярным некрозом, характерными признаками которого являются боль в поясничной\
|
113 |
+
\ области, гематурия, протеинурия, при этом тяжелое поражение печени может отсутствовать,\
|
114 |
+
\ а такжеаритмия и панкреатит. При длительном применении с превышением рекомендованнойдозы\
|
115 |
+
\ может наблюдаться гепатотоксическое и нефротоксическое действие (почечнаяколика,\
|
116 |
+
\ неспецифическая бактериурия, интерстициальный нефрит, папиллярныйнекроз).Лечение\
|
117 |
+
\ Прекратитьприменение препарата и немедленно обратиться к врачу. Рекомендуется\
|
118 |
+
\ промываниежелудка не позднее, чем через 4 часа после отравления, прием адсорбентов(активированный\
|
119 |
+
\ уголь); введение донаторов SH-групп и предшественников синтезаглутатиона — метионина\
|
120 |
+
\ в течение 8–9 ч после передозировки и ацетилцистеина — втечение 8 ч. Необходимость\
|
121 |
+
\ в проведении дополнительных терапевтическихмероприятий (дальнейшее введение\
|
122 |
+
\ метионина, внутривенное введениеацетилцистеина) определяется в зависимости от\
|
123 |
+
\ концентрации парацетамола вкрови, а также от времени, прошедшего после его приема.Лечение\
|
124 |
+
\ детей ссерьезными нарушениями функции печени через 24 часа после приема препаратадолжно\
|
125 |
+
\ проводиться совместно со специалистами токсикологического центра илиспециализированного\
|
126 |
+
\ отделения гепатологии. Болевой синдром слабой и умеренной интенсивности различного\
|
127 |
+
\ генеза (в т.ч. головная боль, мигрень, зубная боль, невралгия, миалгия, альгодисменорея;\
|
128 |
+
\ боль при травмах, ожогах). Лихорадка при инфекционно-воспалительных заболеваниях.\
|
129 |
+
\ Анальгетик-антипиретик. Обладает жаропонижающим и болеутоляющим действием. Блокирует\
|
130 |
+
\ ЦОГ-1 и ЦОГ-2 преимущественно в ЦНС, воздействуя на центры боли и терморегуляции.\
|
131 |
+
\ В воспаленных тканях клеточные пероксидазы нейтрализуют влияние парацетамола\
|
132 |
+
\ на ЦОГ, что объясняет практически полное отсутствие противовоспалительного эффекта.\
|
133 |
+
\ Поскольку парацетамол обладает чрезвычайно малым влиянием па синтез простагландинов\
|
134 |
+
\ в периферических тканях, он не изменяет водно-электролитный обмен и не вызывает\
|
135 |
+
\ повреждения слизистой оболочки ЖКТ. <br><b>Фармакокинетика</b><br>\n \
|
136 |
+
\ После приема внутрь парацетамол быстро абсорбируется из ЖКТ, преимущественно\
|
137 |
+
\ в тонкой кишке, в основном путем пассивного транспорта. После однократного приема\
|
138 |
+
\ в дозе 500 мг Cmax в плазме крови достигается через 0.5-2 ч и составляет 5-20\
|
139 |
+
\ мкг/мл. Широко распределяется в тканях и в основном в жидких средах организма,\
|
140 |
+
\ за исключением жировой ткани и спинномозговой жидкости.Связывание с белками\
|
141 |
+
\ составляет около 15% и незначительно увеличивается при передозировке. Сульфатный\
|
142 |
+
\ и глюкуронидный метаболиты не связываются с белками плазмы даже в относительно\
|
143 |
+
\ высоких концентрациях.Парацетамол метаболизируется преимущественно в печени\
|
144 |
+
\ путем конъюгации с глюкуро��идом, конъюгации с сульфатом и окисления при участии\
|
145 |
+
\ смешанных оксидаз печени и цитохрома P450.Гидроксилированный метаболит с негативным\
|
146 |
+
\ действием - N-ацетил-p-бензохинонимин, который образуется в очень небольших\
|
147 |
+
\ количествах в печени и почках под влиянием смешанных оксидаз и обычно детоксифицируется\
|
148 |
+
\ путем связывания с глутатионом, может накапливаться при передозировке парацетамола\
|
149 |
+
\ и вызывать повреждения тканей.У взрослых большая часть парацетамола связывается\
|
150 |
+
\ с глюкуроновой кислотой и в меньшей степени - с серной кислотой. Эти конъюгированные\
|
151 |
+
\ метаболиты не обладают биологической активностью. У недоношенных детей, новорожденных\
|
152 |
+
\ и на первом году жизни преобладает сульфатный метаболит.T1/2 составляет 1-4\
|
153 |
+
\ ч. Почечный клиренс парацетамола составляет 5%.Выводится с мочой главным образом\
|
154 |
+
\ в виде глюкуронидных и сульфатных конъюгатов. Менее 5% выводится в виде неизмененного\
|
155 |
+
\ парацетамола. 1095 Внутрь или ректально у взрослых и подростков с массой тела\
|
156 |
+
\ более 60 кг применяют в разовой дозе 500 мг , кратность приема - до 4 раз/сут.\
|
157 |
+
\ Максимальная продолжительность лечения - 5-7 дней. Максимальные дозы: разовая\
|
158 |
+
\ - 1 г, суточная - 4 г.Разовые дозы для приема внутрь для детей в возрасте 6-\
|
159 |
+
\ 12 лет - 250-500 мг , 1-5 лет - 120-250 мг , от 3 месяцев до 1 года - 60-\
|
160 |
+
\ 120 мг , до 3 месяцев - 10 мг /кг. Разовые дозы при ректальном применении у\
|
161 |
+
\ детей в возрасте 6- 12 лет - 250-500 мг , 1-5 лет - 125-250 мг .Кратность\
|
162 |
+
\ применения - 4 раза/сут с интервалом не менее 4 ч. Максимальная продолжительность\
|
163 |
+
\ лечения - 3 дня. Максимальная доза: 4 разовые дозы в сутки. Суспензия для\
|
164 |
+
\ приема внутрь для детей 2.4%5 мл ( 1 чайн.л.) парацетамол 120 мг Со стороны\
|
165 |
+
\ пищеварительной системы: редко - диспептические явления, при длительном применении\
|
166 |
+
\ в высоких дозах - гепатотоксическое действие. Со стороны системы кроветворения:\
|
167 |
+
\ редко - тромбоцитопения, лейкопения, панцитопения, нейтропения, агранулоцитоз.\
|
168 |
+
\ Аллергические реакции: редко - кожная сыпь, зуд, крапивница. Если при приеме\
|
169 |
+
\ парацетамола улучшение состояния не наблюдается или головная боль становится\
|
170 |
+
\ постоянной, необходимо обратиться к врачу. При продолжающемся лихорадочном синдроме\
|
171 |
+
\ на фоне применения парацетамола более 3 дней и болевом синдроме более 5 дней,\
|
172 |
+
\ требуется консультация врача.<br>Пациенты с дефицитом глутатиона подвержены\
|
173 |
+
\ передозировке, необходимо соблюдать меры предосторожности. Дефицит глутатиона\
|
174 |
+
\ вследствие расстройства пищевого поведения, муковисцидоза, ВИЧ-инфекции, голодания,\
|
175 |
+
\ истощения обусловливает возможность развития тяжелого поражения печени при небольших\
|
176 |
+
\ передозировках парацетамола (5 г и более). Зарегистрированы случаи развития\
|
177 |
+
\ печеночной недостаточности и нарушений функции печени у пациентов с низким уровнем\
|
178 |
+
\ глутатиона, в частности, у крайне истощенных пациентов, страдающих анорексией,\
|
179 |
+
\ хроническим алкоголизмом или у пациентов с низким ИМТ. Риск развития повреждений\
|
180 |
+
\ печени возрастает у пациентов с поражением печени при алкоголизме.<br>Прием\
|
181 |
+
\ парацетамола оказывает влияние на показатели лабораторных исследований при количественном\
|
182 |
+
\ определении глюкозы и мочевой кислоты в плазме.<br>Во время длительного лечения\
|
183 |
+
\ необходим контроль картины периферической крови и функционального состояния\
|
184 |
+
\ печени.<br>При первом проявлении сыпи или других реакций гиперчувствительности,\
|
185 |
+
\ применение парацетамола следует прекратить и немедленно обратиться к врачу.<br>При\
|
186 |
+
\ обнаружении у пациента острого вирусного гепатита необходимо отменить прием\
|
187 |
+
\ парацетамола. <br>Не принимать одновременно с другими препаратами, содержащими\
|
188 |
+
\ парацетамол.<br>Во избежание токсического поражения печени парацетамол не следует\
|
189 |
+
\ сочетать с приемом алкогольных напитков, а также принимать лицам, склонным к\
|
190 |
+
\ хроническому потреблению алкоголя.<br><b>Влияние на способность управлять транспортными\
|
191 |
+
\ средствами и механизмами</b><br>Отсутствуют данные о влиянии парацетамола на\
|
192 |
+
\ способность управлять автомобилем или другими механизмами. Однако, учитывая\
|
193 |
+
\ возможные нежелательные реакции, рекомендуется соблюдать осторожность во время\
|
194 |
+
\ приема парацетамола при управлении автотранспортом или другими механизмами.<br>\
|
195 |
+
\ Хронический алкоголизм, повышенная чувствительность к парацетамолу. Отисифарм\
|
196 |
+
\ Без рецепта Болеутоляющие Парацетамол, суспензия для детей (апельсин) 120 мг/5\
|
197 |
+
\ мл, 200 г"
|
198 |
+
sentences:
|
199 |
+
- EPG Дом и сад Товары для праздников Шарик ёлочный 6536693 6 Новый год Набор елочных
|
200 |
+
шаров - 1шт(штука) 8 Универсально Набор ёлочных шаров Китай Пластик серебристый
|
201 |
+
Аделия https://cdn1.ozone.ru/s3/multimedia-h/6098547389.jpg Зимнее волшебство
|
202 |
+
Фабричное производство Набор елочных шаров пластик d-6 см, 8 шт "Аделия" серебристо-синий
|
203 |
+
- EPG Мебель Шкафы Шкаф распашной 43 ЛДСП 5212 Однодверный Современный Нет бренда
|
204 |
+
Прямой 80500 Шкаф с открытыми и закрытыми полками- это в стандарте. Если за распашной
|
205 |
+
дверью необходима штанга(выдвижная) или нужно поменять расположение двери и полок,
|
206 |
+
напишите об этом в комментариях. 18 месяцев В разобранном виде Шкаф распашной
|
207 |
+
Россия Универсальный светло-бежевый ЛДСП Ясень шимо светлый Нет Открывающиеся
|
208 |
+
влево 8 С полками Для офиса 200 Фабричное производство 90 Шкаф распашной, Шкаф
|
209 |
+
офисный с полками Silvez, 90х43х200 см
|
210 |
+
- "EPG Аптека Лекарственные средства Лекарственное средство безрецептурное Paracetamol\
|
211 |
+
\ PARACETAMOL При температуре не выше 25 град.(не замораживать). Срок годности:\
|
212 |
+
\ 3 года; после вскрытия - 6 мес Суспензия для приема внутрь, [апельсиновая] 1095\
|
213 |
+
\ Индивидуальная повышенная чувствительность к компонентам препарата; заболевания\
|
214 |
+
\ системы крови; генетическое отсутствие глюкозо-6 фосфатдегидрогеназы; дефицит\
|
215 |
+
\ сахаразы/изомальтазы, непереносимость фруктозы, глюкозо галактозная мальабсорбция;\
|
216 |
+
\ период новорожденности (возраст до 1 месяца). <br> С осторожностью: печеночная\
|
217 |
+
\ и почечная недостаточность; доброкачественные гипербилирубинемии (в том числе\
|
218 |
+
\ синдром Жильбера); алкогольное поражение печени, алкоголизм; сахарный диабет;\
|
219 |
+
\ беременность, период лактации; пожилой возраст; ранний грудной возраст (1 -3\
|
220 |
+
\ месяца). Фармстандарт Да парацетамол 120 мг Парацетамол Лекарственное средство\
|
221 |
+
\ безрецептурное Россия Барбитураты, карбамазепин, фенитоин, дифенин, примидон\
|
222 |
+
\ и другие противосудорожные средства, этанол, рифампицин, зидовудин, флумецинол,\
|
223 |
+
\ фенилбутазон, бутадион, препараты зверобоя продырявленного и другие индукторы\
|
224 |
+
\ микросомального окисления увеличивают продукцию гидроксилированных активных\
|
225 |
+
\ метаболитов, обуславливая возможность развития тяжелого поражения печени при\
|
226 |
+
\ небольших передозировках парацетамола (5 г и более). <br> Ингибиторы микросомальных\
|
227 |
+
\ ферментов печени снижают риск гепатотоксического действия. Под действием парацетамола\
|
228 |
+
\ время выведения левомицетина (хлорамфеникола) увеличивается в 5 раз, вследствие\
|
229 |
+
\ чего возрастает риск отравления левомицетином (хлорамфениколом). <br> При регулярном\
|
230 |
+
\ приеме в течение длительного времени препарат усиливает действие непрямых антикоагулянтов\
|
231 |
+
\ (варфарин и прочие кумарины), что увеличивает риск кровотечений. Эпизодический\
|
232 |
+
\ прием разовой дозы препарата не оказывает значимого влияния на действие непрямых\
|
233 |
+
\ антикоагулянтов. Метоклопрамид и домперидон увеличивают, а колестирамин снижает\
|
234 |
+
\ скорость всасывания парацетамола. Препарат может снижать эффективность урикозурических\
|
235 |
+
\ препаратов. <br> Длительное совместное применение парацетамола и других НПВП\
|
236 |
+
\ повышает риск развития \"анальгетической\" нефропатии и почечного папиллярного\
|
237 |
+
\ некроза, наступления терминальной стадии почечной недостаточности. Острая передозировка:\
|
238 |
+
\ бледность кожных покровов, острая печеночная недостаточность, желудочно-кишечные\
|
239 |
+
\ расстройства (диарея, потеря аппетита, \nтошнота, рвота, кишечные спазмы, боль\
|
240 |
+
\ в желудке), увеличение потоотделения. <br> Хроническая передозировка: гепатотоксичность,\
|
241 |
+
\ нефротоксичность. Болевой синдром слабой и умеренной интенсивности различного\
|
242 |
+
\ генеза (в т.ч. головная боль, мигрень, зубная боль, невралгия, миалгия, альгодисменорея;\
|
243 |
+
\ боль при травмах, ожогах). Лихорадка при инфекционно-воспалительных заболеваниях.\
|
244 |
+
\ Препарат блокирует циклооксигеназу I и II преимущественно в ЦНС, воздействуя\
|
245 |
+
\ на центры боли и терморегуляции. В воспаленных тканях клеточные пероксидазы\
|
246 |
+
\ нейтрализуют влияние парацетамола на циклооксигеназу, что объясняет практически\
|
247 |
+
\ полное отсутствие у него противовоспалительного эффекта. Препарат не оказывает\
|
248 |
+
\ отрицательного воздействия на водно-солевой обмен (задержка натрия и воды) и\
|
249 |
+
\ слизистую желудочно-кишечного тракта вследствие отсутствия влияния на синтез\
|
250 |
+
\ простагландинов в периферических тканях. Детская 200 г В 5 мл суспензии содержится\
|
251 |
+
\ 120 мг парацетамола. В одном флаконе количество доз по 5 мл составляет: в 100\
|
252 |
+
\ г -16 доз, в 150 г - 24 дозы и в 200 г - 32 дозы. <br> Препарат принимают внутрь\
|
253 |
+
\ до еды в неразведенном виде, запивая большим количеством жидкости. Перед применением\
|
254 |
+
\ препарат тщательно взбалтывают. Кратность приема не более 4 раз в сутки с интервалом\
|
255 |
+
\ не менее 4 часов. <br> Доза парацетамола для детей рассчитывается в зависимости\
|
256 |
+
\ от возраста и массы тела. Разовая доза парацетамола составляет 10-15 мг/кг массы\
|
257 |
+
\ тела, суточная - не более 60 мг/кг массы тела. На 5 мл препарата: <br> Активное\
|
258 |
+
\ вещество: Парацетамол -120 мг; <br> Вспомогательные вещества: Авицел RC-591\
|
259 |
+
\ [целлюлоза микрокристаллическая, \nкармеллоза натрия] - 50 мг, камедь ксантановая\
|
260 |
+
\ (ксантановая смола) - 7,5 мг, метилпарагидроксибензоат (нипагин) - 5 мг, пропиленгликоль\
|
261 |
+
\ -1 мг, сахароза (сахар) -1650 мг, глицерол (глицерин) - 630 мг, сорбитол (сорбит\
|
262 |
+
\ пищевой) -1128,75 мг, ароматизатор апельсиновый - 6,5 мг, вода (вода очищенная)\
|
263 |
+
\ - до 5 мл. В терапевтических дозах парацетамол обычно хорошо переносится.<br>\
|
264 |
+
\ Перечисленные ниже побочные эффекты выявлены спонтанно в ходе пострегистрационного\
|
265 |
+
\ применения.<br> <b>Со стороны крови и лимфатической системы:</b> часто - послеоперационные\
|
266 |
+
\ кровотечения; очень редко - анемия, тромбоцитопения, лейкопения, нейтропения,\
|
267 |
+
\ агранулоцитоз, гемолитическая анемия; частота неизвестна - панцитопения, сульфогемоглобинемия,\
|
268 |
+
\ метгемоглобинемия.<br> <b>Со стороны иммунной системы:</b> редко - аллергические\
|
269 |
+
\ реакции (в т.ч. кожная сыпь, зуд, крапивница, ангионевротический отек); очень\
|
270 |
+
\ редко - острый генерализованный экзантематозный пустулез, синдром Стивенса-Джонсона,\
|
271 |
+
\ токсический эпидермальный некролиз (синдром Лайелла), анафилаксия.<br> <b>Со\
|
272 |
+
\ стороны психики:</b> часто - бессонница, тревога.<br> <b>Со стороны нервной\
|
273 |
+
\ системы:</b> часто - головная боль; частота неизвестна - дистония, головокружение,\
|
274 |
+
\ психомоторное возбуждение, дезориентация (при приеме в высоких дозах).<br> <b>Со\
|
275 |
+
\ стороны органа зрения:</b> часто - периорбитальный отек.<br> <b>Со стороны сердечно-сосудистой\
|
276 |
+
\ системы:</b> часто - тахикардия, боль в груди, периферические отеки, артериальная\
|
277 |
+
\ гипертензия; редко - снижение АД.<br> <b>Со стороны дыхательной системы:</b>\
|
278 |
+
\ часто - диспноэ, патологическое дыхание, отек легких, гипоксия, плевральный\
|
279 |
+
\ выпот, хрипы, одышка, кашель; очень редко - бронхоспазм (у пациентов с повышенной\
|
280 |
+
\ чувствительностью к ацетилсалициловой кислоте и другим НПВС).<br> <b>Со стороны\
|
281 |
+
\ пищеварительной системы:</b> часто - диарея, запор, диспепсия, вздутие живота;\
|
282 |
+
\ редко - боли в животе, тошнота, рвота; частота неизвестна - сухость во рту.<br>\
|
283 |
+
\ <b>Со стороны печени и желчевыводящих путей:</b> редко - повышение активности\
|
284 |
+
\ печеночных ферментов; частота неизвестна - печеночная недостаточность, гепатиты,\
|
285 |
+
\ некроз печени.<br> <b>Со стороны кожи и подкожных тканей:</b> частота неизвестна\
|
286 |
+
\ - экзантема.<br> <b>Со стороны костно-мышечной системы:</b> часто - мышечные\
|
287 |
+
\ спазмы, тризм.<br> <b>Со стороны мочевыделительной системы:</b> часто - олигурия;\
|
288 |
+
\ частота неизвестна - почечная колика, неспецифическая бактериурия, интерстициальный\
|
289 |
+
\ нефрит, папиллярный некроз.<br> <b>Общие реакции:</b> часто - пирексия, чувство\
|
290 |
+
\ усталости; редко - общее недомогание/слабость.<br> <b>Влияние на результаты\
|
291 |
+
\ лабораторных и инструментальных исследований:</b> часто - гипокалиемия, гипергликемия;\
|
292 |
+
\ редко - снижение или увеличение протромбинового индекса; частота неизвестна\
|
293 |
+
\ - увеличение креатинина (в основном вторично, по отношению к гепаторенальному\
|
294 |
+
\ синдрому).<br> Если при приеме парацетамола улучшение состояния не наблюдается\
|
295 |
+
\ или головная боль становится постоянной, необходимо обратиться к врачу. При\
|
296 |
+
\ продолжающемся лихорадочном синдроме на фоне применения парацетамола более 3\
|
297 |
+
\ дней и болевом синдроме более 5 дней, требуется консультация врача.<br>Пациенты\
|
298 |
+
\ с дефицитом глутатиона подвержены передозировке, необходимо соблюдать меры предосторожности.\
|
299 |
+
\ Дефицит глутатиона вследствие расстройства пищевого поведения, муковисцидоза,\
|
300 |
+
\ ВИЧ-инфекции, голодания, истощения обусловливает возможность развития тяжелого\
|
301 |
+
\ поражения печени при небольших передозировках парацетамола (5 г и более). Зарегистрированы\
|
302 |
+
\ случаи развития печеночной недостаточности и нарушений функции печени у пациентов\
|
303 |
+
\ с низким уровнем глутатиона, в частности, у крайне истощенных пациентов, страдающих\
|
304 |
+
\ анорексией, хроническим алкоголизмом или у пациентов с низким ИМТ. Риск развития\
|
305 |
+
\ повреждений печени возрастает у пациентов с поражением печени при алкоголизме.<br>Прием\
|
306 |
+
\ парацетамола оказывает влияние на показатели лабораторных исследований при количественном\
|
307 |
+
\ определении глюкозы и мочевой кислоты в плазме.<br>Во время длительного лечения\
|
308 |
+
\ необходим контроль картины периферической крови и функционального состояния\
|
309 |
+
\ печени.<br>При первом проявлении сыпи или других реакций гиперчувствительности,\
|
310 |
+
\ применение парацетамола следует прекратить и немедленно обратиться к врачу.<br>При\
|
311 |
+
\ обнаружении у пациента острого вирусного гепатита необходимо отменить прием\
|
312 |
+
\ парацетамола. <br>Не принимать одновременно с другими препаратами, содержащими\
|
313 |
+
\ парацетамол.<br>Во избежание токсического поражения печени парацетамол не следует\
|
314 |
+
\ сочетать с приемом алкогольных напитков, а также принимать лицам, склонным к\
|
315 |
+
\ хроническому потреблению алкоголя.<br><b>Влияние на способность управлять транспортными\
|
316 |
+
\ средствами и механизмами</b><br>Отсутствуют данные о влиянии парацетамола на\
|
317 |
+
\ способность управлять автомобилем или другими механизмами. Однако, учитывая\
|
318 |
+
\ возможные нежелательные реакции, рекомендуется соблюдать осторожность во время\
|
319 |
+
\ приема парацетамола при управлении автотранспортом или другими механизмами.<br>\
|
320 |
+
\ Через рот 1 месяца Флакон Без рецепта Пачка картонная Суспензия для приема внутрь\
|
321 |
+
\ Жаропонижающие Парацетамол детский сусп. д/приема внутрь (апельсиновая) 120мг/5мл\
|
322 |
+
\ фл. 200г"
|
323 |
+
- source_sentence: EPG Канцелярские товары Письменные принадлежности Маркер KOH-I-NOOR
|
324 |
+
Маркер Чехия Маркер для ткани 2.0 мм Koh-I-Noor 3203/73, длина письма 500 м, неоновый
|
325 |
+
зеленый
|
326 |
+
sentences:
|
327 |
+
- EPG Канцелярские товары Письменные принадлежности Маркер Водный Новичкам и профессионалам
|
328 |
+
1 Маркер Чехия Для декорирования Без ограничения 2 https://cdn1.ozone.ru/s3/multimedia-u/6086897334.jpg
|
329 |
+
Нет бренда Ткань, текстиль Кисть 8 1585 Маркер для ткани 2.0 мм Koh-I-Noor 3203/73,
|
330 |
+
длина письма 500 м, неоновый зеленый, 12 шт.
|
331 |
+
- "EPG Красота и гигиена Декоративная косметика Переводное тату синий 1. Перед использованием\
|
332 |
+
\ сделайте тест на аллергическую реакцию или индивидуальную непереносимость компонентов.\n\
|
333 |
+
\ 2. Для этого нанесите на небольшой участок кожи тату и оставьте на 20 минут.\n\
|
334 |
+
\ 3. При проявлении сыпи, зуда или воспаления немедленно смойте и обратитесь\
|
335 |
+
\ к врачу.\n 4. Татуировки произведены с использованием красителей, поэтому может\
|
336 |
+
\ присутствовать специфический запах. Рекомендуем проветрить листы с тату на свежем\
|
337 |
+
\ воздухе за полчаса до использования. Пакет 7 NONAME Временная татуировка Китай\
|
338 |
+
\ Без парабенов 1 Взрослая Детская Татуировка на тело, синяя, водостойкая, Лев\
|
339 |
+
\ и львица, 6х6 см, 7 штук в упаковке"
|
340 |
+
- Одежда и обувь Одежда Спецодежда Одежда для охоты и рыбалки 180 Костюм тактический
|
341 |
+
Молния Брюки Куртка 50 52 Мужской Пакет Демисезон Быстрая стирка при 30° 40° зеленый
|
342 |
+
серый хаки Softshell Мульт Флис Для военных Для охоты и рыбалки Для охранных структур
|
343 |
+
Для силовых структур Осень-зима 2023 Хлопок 35%; Полиэстер 65% Камуфляж XL Golden
|
344 |
+
Dragon Fishing Костюм тактический софтшел
|
345 |
+
- source_sentence: EPG Детские товары Конструкторы Конструктор C62001W Конструктор
|
346 |
+
пластиковый Китай true Геометрические фигуры Техника Транспорт Трансформеры Фантазия
|
347 |
+
без границ хаки черный черный матовый 1083 CaDa Блочный Сборная модель 325х155х160
|
348 |
+
От 6 лет 32 До 18 лет Конструктор для мальчика машина SUZUKI JIMNY SIERRA CADA
|
349 |
+
C62001W / сборная модель пластиковая, развивающая игрушка для детей, 1803 детали
|
350 |
+
sentences:
|
351 |
+
- 'Книги и цифровые книги Книги Печатные книги, журналы, комиксы Печатная книга:
|
352 |
+
Дом, хобби, кулинарные книги Мировые звезды рукоделия Мелованная матовая Эксмо
|
353 |
+
Дуит Торстен Твердый переплет 2022 160 Печатная книга 84x108/16 Торстен Дуит Männermaschen
|
354 |
+
978-5-04-122300-7 Русский 12+ 265х207х15 707 Искусство мужского вязания. Трикотажная
|
355 |
+
одежда: классическая или крутая. Первое практическое пособие по вязанию на спицах
|
356 |
+
полного мужского гардероба со схемами, выкройками, инструкциями и видеоуроками
|
357 |
+
| Дуит Торстен'
|
358 |
+
- EPG Спорт и отдых Аксессуары и принадлежности для рыбалки Крючок рыболовный розовый
|
359 |
+
1 Hayabusa Крючок рыболовный 3 Япония 1400 10 1 10 Одинарный 3 Самодуры, Ставки,
|
360 |
+
Сабики Hayabusa HS712 (1.40м)(6кр) размер крючка №3
|
361 |
+
- EPG Детские товары Конструкторы Конструктор 004057 14 дней Конструктор пластиковый
|
362 |
+
Китай true от 1000 шт и больше Транспорт зеленый 47х11х39 1803 CaDa Электронный
|
363 |
+
325 х 160 х 155 От 8 лет 32.5 До 18 лет Конструктор CADA автомобиль SUZUKI JIMNY
|
364 |
+
SIERRA 1/12 (1803 детали)
|
365 |
+
- source_sentence: EPG Хобби и творчество Набор для рукоделия, творчества Набор для
|
366 |
+
опытов 1 Набор для опытов Планеты и космос Кругозор 26 2 Магнитные свойства Отсутствует
|
367 |
+
синий Астрономия От 5 лет Эврики Магнит От 3 лет От 3 лет Большой набор опытов
|
368 |
+
"Удивительный Космос", 3 в1
|
369 |
+
sentences:
|
370 |
+
- EPG Дом и сад Аксессуары для цветов Набор для рассады 665-4998725 25 1095 25 Таблетки
|
371 |
+
торфяные Норвегия 25 25 0,17 л Торф коричневый темно-коричневый черный JIFFY 41
|
372 |
+
Фабричное производство JIFFY Таблетки торфяные
|
373 |
+
- Одежда и обувь Обувь Повседневная обувь Кроссовки ТЭП (полимерный термопластичный
|
374 |
+
материал) Россия Без каблука 42 Мужской 7 размер в размер Взрослая Шнурки Зима
|
375 |
+
черный Натуральная кожа Шерсть черный Базовая коллекция размер в размер, COLOR
|
376 |
+
ME Кроссовки COLOR ME
|
377 |
+
- EPG Хобби и творчество Набор для рукоделия, творчества Набор для опытов Эврики
|
378 |
+
Набор для опытов Китай От 3 лет Большой набор опытов "Удивительный Космос", 3
|
379 |
+
в1
|
380 |
+
model-index:
|
381 |
+
- name: SentenceTransformer based on cointegrated/rubert-tiny2
|
382 |
+
results:
|
383 |
+
- task:
|
384 |
+
type: binary-classification
|
385 |
+
name: Binary Classification
|
386 |
+
dataset:
|
387 |
+
name: ozon
|
388 |
+
type: ozon
|
389 |
+
metrics:
|
390 |
+
- type: cosine_accuracy
|
391 |
+
value: 0.8088109495295124
|
392 |
+
name: Cosine Accuracy
|
393 |
+
- type: cosine_accuracy_threshold
|
394 |
+
value: 0.9155731201171875
|
395 |
+
name: Cosine Accuracy Threshold
|
396 |
+
- type: cosine_f1
|
397 |
+
value: 0.8076109936575052
|
398 |
+
name: Cosine F1
|
399 |
+
- type: cosine_f1_threshold
|
400 |
+
value: 0.8725903034210205
|
401 |
+
name: Cosine F1 Threshold
|
402 |
+
- type: cosine_precision
|
403 |
+
value: 0.7695406929895245
|
404 |
+
name: Cosine Precision
|
405 |
+
- type: cosine_recall
|
406 |
+
value: 0.849644128113879
|
407 |
+
name: Cosine Recall
|
408 |
+
- type: cosine_ap
|
409 |
+
value: 0.8589750343719278
|
410 |
+
name: Cosine Ap
|
411 |
+
- type: dot_accuracy
|
412 |
+
value: 0.8088109495295124
|
413 |
+
name: Dot Accuracy
|
414 |
+
- type: dot_accuracy_threshold
|
415 |
+
value: 0.9155731201171875
|
416 |
+
name: Dot Accuracy Threshold
|
417 |
+
- type: dot_f1
|
418 |
+
value: 0.8076109936575052
|
419 |
+
name: Dot F1
|
420 |
+
- type: dot_f1_threshold
|
421 |
+
value: 0.8725903034210205
|
422 |
+
name: Dot F1 Threshold
|
423 |
+
- type: dot_precision
|
424 |
+
value: 0.7695406929895245
|
425 |
+
name: Dot Precision
|
426 |
+
- type: dot_recall
|
427 |
+
value: 0.849644128113879
|
428 |
+
name: Dot Recall
|
429 |
+
- type: dot_ap
|
430 |
+
value: 0.8618325880948956
|
431 |
+
name: Dot Ap
|
432 |
+
- type: manhattan_accuracy
|
433 |
+
value: 0.8071000855431993
|
434 |
+
name: Manhattan Accuracy
|
435 |
+
- type: manhattan_accuracy_threshold
|
436 |
+
value: 5.752572059631348
|
437 |
+
name: Manhattan Accuracy Threshold
|
438 |
+
- type: manhattan_f1
|
439 |
+
value: 0.8072696534234995
|
440 |
+
name: Manhattan F1
|
441 |
+
- type: manhattan_f1_threshold
|
442 |
+
value: 7.045193672180176
|
443 |
+
name: Manhattan F1 Threshold
|
444 |
+
- type: manhattan_precision
|
445 |
+
value: 0.7689210950080515
|
446 |
+
name: Manhattan Precision
|
447 |
+
- type: manhattan_recall
|
448 |
+
value: 0.849644128113879
|
449 |
+
name: Manhattan Recall
|
450 |
+
- type: manhattan_ap
|
451 |
+
value: 0.8590167637866433
|
452 |
+
name: Manhattan Ap
|
453 |
+
- type: euclidean_accuracy
|
454 |
+
value: 0.8088109495295124
|
455 |
+
name: Euclidean Accuracy
|
456 |
+
- type: euclidean_accuracy_threshold
|
457 |
+
value: 0.4109181761741638
|
458 |
+
name: Euclidean Accuracy Threshold
|
459 |
+
- type: euclidean_f1
|
460 |
+
value: 0.8076109936575052
|
461 |
+
name: Euclidean F1
|
462 |
+
- type: euclidean_f1_threshold
|
463 |
+
value: 0.5047961473464966
|
464 |
+
name: Euclidean F1 Threshold
|
465 |
+
- type: euclidean_precision
|
466 |
+
value: 0.7695406929895245
|
467 |
+
name: Euclidean Precision
|
468 |
+
- type: euclidean_recall
|
469 |
+
value: 0.849644128113879
|
470 |
+
name: Euclidean Recall
|
471 |
+
- type: euclidean_ap
|
472 |
+
value: 0.8589750343719278
|
473 |
+
name: Euclidean Ap
|
474 |
+
- type: max_accuracy
|
475 |
+
value: 0.8088109495295124
|
476 |
+
name: Max Accuracy
|
477 |
+
- type: max_accuracy_threshold
|
478 |
+
value: 5.752572059631348
|
479 |
+
name: Max Accuracy Threshold
|
480 |
+
- type: max_f1
|
481 |
+
value: 0.8076109936575052
|
482 |
+
name: Max F1
|
483 |
+
- type: max_f1_threshold
|
484 |
+
value: 7.045193672180176
|
485 |
+
name: Max F1 Threshold
|
486 |
+
- type: max_precision
|
487 |
+
value: 0.7695406929895245
|
488 |
+
name: Max Precision
|
489 |
+
- type: max_recall
|
490 |
+
value: 0.849644128113879
|
491 |
+
name: Max Recall
|
492 |
+
- type: max_ap
|
493 |
+
value: 0.8618325880948956
|
494 |
+
name: Max Ap
|
495 |
+
---
|
496 |
+
|
497 |
+
# SentenceTransformer based on cointegrated/rubert-tiny2
|
498 |
+
|
499 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [cointegrated/rubert-tiny2](https://huggingface.co/cointegrated/rubert-tiny2). It maps sentences & paragraphs to a 312-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
500 |
+
|
501 |
+
## Model Details
|
502 |
+
|
503 |
+
### Model Description
|
504 |
+
- **Model Type:** Sentence Transformer
|
505 |
+
- **Base model:** [cointegrated/rubert-tiny2](https://huggingface.co/cointegrated/rubert-tiny2) <!-- at revision dad72b8f77c5eef6995dd3e4691b758ba56b90c3 -->
|
506 |
+
- **Maximum Sequence Length:** 2048 tokens
|
507 |
+
- **Output Dimensionality:** 312 tokens
|
508 |
+
- **Similarity Function:** Cosine Similarity
|
509 |
+
<!-- - **Training Dataset:** Unknown -->
|
510 |
+
<!-- - **Language:** Unknown -->
|
511 |
+
<!-- - **License:** Unknown -->
|
512 |
+
|
513 |
+
### Model Sources
|
514 |
+
|
515 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
516 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
517 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
518 |
+
|
519 |
+
### Full Model Architecture
|
520 |
+
|
521 |
+
```
|
522 |
+
SentenceTransformer(
|
523 |
+
(0): Transformer({'max_seq_length': 2048, 'do_lower_case': False}) with Transformer model: BertModel
|
524 |
+
(1): Pooling({'word_embedding_dimension': 312, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
525 |
+
(2): Normalize()
|
526 |
+
)
|
527 |
+
```
|
528 |
+
|
529 |
+
## Usage
|
530 |
+
|
531 |
+
### Direct Usage (Sentence Transformers)
|
532 |
+
|
533 |
+
First install the Sentence Transformers library:
|
534 |
+
|
535 |
+
```bash
|
536 |
+
pip install -U sentence-transformers
|
537 |
+
```
|
538 |
+
|
539 |
+
Then you can load this model and run inference.
|
540 |
+
```python
|
541 |
+
from sentence_transformers import SentenceTransformer
|
542 |
+
|
543 |
+
# Download from the 🤗 Hub
|
544 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
545 |
+
# Run inference
|
546 |
+
sentences = [
|
547 |
+
'EPG Хобби и творчество Набор для рукоделия, творчества Набор для опытов 1 Набор для опытов Планеты и космос Кругозор 26 2 Магнитные свойства Отсутствует синий Астрономия От 5 лет Эврики Магнит От 3 лет От 3 лет Большой набор опытов "Удивительный Космос", 3 в1',
|
548 |
+
'EPG Хобби и творчество Набор для рукоделия, творчества Набор для опытов Эврики Набор для опытов Китай От 3 лет Большой набор опытов "Удивительный Космос", 3 в1',
|
549 |
+
'Одежда и обувь Обувь Повседневная обувь Кроссовки ТЭП (полимерный термопластичный материал) Россия Без каблука 42 Мужской 7 размер в размер Взрослая Шнурки Зима черный Натуральная кожа Шерсть черный Базовая коллекция размер в размер, COLOR ME Кроссовки COLOR ME',
|
550 |
+
]
|
551 |
+
embeddings = model.encode(sentences)
|
552 |
+
print(embeddings.shape)
|
553 |
+
# [3, 312]
|
554 |
+
|
555 |
+
# Get the similarity scores for the embeddings
|
556 |
+
similarities = model.similarity(embeddings, embeddings)
|
557 |
+
print(similarities.shape)
|
558 |
+
# [3, 3]
|
559 |
+
```
|
560 |
+
|
561 |
+
<!--
|
562 |
+
### Direct Usage (Transformers)
|
563 |
+
|
564 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
565 |
+
|
566 |
+
</details>
|
567 |
+
-->
|
568 |
+
|
569 |
+
<!--
|
570 |
+
### Downstream Usage (Sentence Transformers)
|
571 |
+
|
572 |
+
You can finetune this model on your own dataset.
|
573 |
+
|
574 |
+
<details><summary>Click to expand</summary>
|
575 |
+
|
576 |
+
</details>
|
577 |
+
-->
|
578 |
+
|
579 |
+
<!--
|
580 |
+
### Out-of-Scope Use
|
581 |
+
|
582 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
583 |
+
-->
|
584 |
+
|
585 |
+
## Evaluation
|
586 |
+
|
587 |
+
### Metrics
|
588 |
+
|
589 |
+
#### Binary Classification
|
590 |
+
* Dataset: `ozon`
|
591 |
+
* Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
|
592 |
+
|
593 |
+
| Metric | Value |
|
594 |
+
|:-----------------------------|:-----------|
|
595 |
+
| cosine_accuracy | 0.8088 |
|
596 |
+
| cosine_accuracy_threshold | 0.9156 |
|
597 |
+
| cosine_f1 | 0.8076 |
|
598 |
+
| cosine_f1_threshold | 0.8726 |
|
599 |
+
| cosine_precision | 0.7695 |
|
600 |
+
| cosine_recall | 0.8496 |
|
601 |
+
| cosine_ap | 0.859 |
|
602 |
+
| dot_accuracy | 0.8088 |
|
603 |
+
| dot_accuracy_threshold | 0.9156 |
|
604 |
+
| dot_f1 | 0.8076 |
|
605 |
+
| dot_f1_threshold | 0.8726 |
|
606 |
+
| dot_precision | 0.7695 |
|
607 |
+
| dot_recall | 0.8496 |
|
608 |
+
| dot_ap | 0.8618 |
|
609 |
+
| manhattan_accuracy | 0.8071 |
|
610 |
+
| manhattan_accuracy_threshold | 5.7526 |
|
611 |
+
| manhattan_f1 | 0.8073 |
|
612 |
+
| manhattan_f1_threshold | 7.0452 |
|
613 |
+
| manhattan_precision | 0.7689 |
|
614 |
+
| manhattan_recall | 0.8496 |
|
615 |
+
| manhattan_ap | 0.859 |
|
616 |
+
| euclidean_accuracy | 0.8088 |
|
617 |
+
| euclidean_accuracy_threshold | 0.4109 |
|
618 |
+
| euclidean_f1 | 0.8076 |
|
619 |
+
| euclidean_f1_threshold | 0.5048 |
|
620 |
+
| euclidean_precision | 0.7695 |
|
621 |
+
| euclidean_recall | 0.8496 |
|
622 |
+
| euclidean_ap | 0.859 |
|
623 |
+
| max_accuracy | 0.8088 |
|
624 |
+
| max_accuracy_threshold | 5.7526 |
|
625 |
+
| max_f1 | 0.8076 |
|
626 |
+
| max_f1_threshold | 7.0452 |
|
627 |
+
| max_precision | 0.7695 |
|
628 |
+
| max_recall | 0.8496 |
|
629 |
+
| **max_ap** | **0.8618** |
|
630 |
+
|
631 |
+
<!--
|
632 |
+
## Bias, Risks and Limitations
|
633 |
+
|
634 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
635 |
+
-->
|
636 |
+
|
637 |
+
<!--
|
638 |
+
### Recommendations
|
639 |
+
|
640 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
641 |
+
-->
|
642 |
+
|
643 |
+
## Training Details
|
644 |
+
|
645 |
+
### Training Dataset
|
646 |
+
|
647 |
+
#### Unnamed Dataset
|
648 |
+
|
649 |
+
|
650 |
+
* Size: 1,166,178 training samples
|
651 |
+
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
|
652 |
+
* Approximate statistics based on the first 1000 samples:
|
653 |
+
| | sentence1 | sentence2 | score |
|
654 |
+
|:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------|
|
655 |
+
| type | string | string | float |
|
656 |
+
| details | <ul><li>min: 23 tokens</li><li>mean: 100.7 tokens</li><li>max: 885 tokens</li></ul> | <ul><li>min: 22 tokens</li><li>mean: 102.5 tokens</li><li>max: 1308 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.48</li><li>max: 1.0</li></ul> |
|
657 |
+
* Samples:
|
658 |
+
| sentence1 | sentence2 | score |
|
659 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
|
660 |
+
| <code>Книги и цифровые книги Книги Печатные книги, журналы, комиксы Печатная книга: Проза других жанров 978-5-85383-801-7 286 Печатная книга Устинов Александр Не указано Этот русский рок-н-ролл - 1</code> | <code>Книги и цифровые книги Книги Печатные книги, журналы, комиксы Печатная книга: История, искусство, культура 2023 288 Печатная книга Устинов А. RUGRAM 978-5-517-08555-9 Устинов А. Твердый переплет 16+ 220х140х20 Этот русский рок-н-ролл - 1 | Устинов А.</code> | <code>0.0</code> |
|
661 |
+
| <code>EPG Канцелярские товары Канцелярия Точилка для карандашей серый Kores Точилка Spooky,2 отверстия 1 уп серый 1 Пластик Kores Точилка для карандашей Китай Поштучно Без ограничения Kores Точилка Spooky, 2 отверстия, светящаяся в темноте</code> | <code>EPG Канцелярские товары Канцелярия Точилка для карандашей Точилка Kores Spooky с контейнером 2 отверстия светящиеся в темноте-1шт Без ограничения Kores Точилка для карандашей Китай Точилка Kores Spooky с контейнером 2 отв, светящ в темноте, 1шт</code> | <code>1.0</code> |
|
662 |
+
| <code>EPG Красота и гигиена Декоративная косметика Тени для бровей светло-коричневый Soft Brown https://cdn1.ozone.ru/s3/multimedia-h/6729679349.jpg TALC, MICA, SILICA, BORON NITRIDE, NYLON-12, MAGNESIUM STEARATE, ETHYLHEXYL PALMITATE, OCTYLDODECYL STEAROYL STEARATE, METHYLPARABEN, PROPYLPARABEN, PHENOXYETHANOL, TOCOPHERYL ACETATE, CAPRYLYL GLYCOL, ETHYLHEXYLGLYCERIN. MAY CONTAIN (+/-): TITANIUM DIOXIDE (CI 77891), IRON OXIDES (CI 77491), IRON OXIDES (CI 77492), IRON OXIDES (CI 77499)<br> Anastasia Beverly Hills Тени для бровей США 1.6 Взрослая ANASTASIA BEVERLY HILLS Тени для бровей Brow Powder Duo (Soft Brown)</code> | <code>EPG Красота и гигиена Декоративная косметика Тени для бровей Easy pack 1 2 Тени для бровей США 2 2 Взрослая Нет бежевый светло-розовый BLONDE 1.6 G https://cdn1.ozone.ru/s3/multimedia-t/6721122917.jpg TALC, MICA, SILICA, BORON NITRIDE, MAGNESIUM STEARATE, ETHYLHEXYL PALMITATE, NYLON-12, OCTYLDODECYL STEAROYL STEARATE, TOCOPHERYL ACETATE, CAPRYLYL GLYCOL, ETHYLHEXYLGLYCERIN, PHENOXYETHANOL, METHYLPARABEN, PROPYLPARABEN, MAY CONTAIN/PEUT CONTENIR (+/-): IRON OXIDES (CI 77491, CI 77492, CI 77499), TITANIUM DIOXIDE (CI 77891) Anastasia Beverly Hills Без отдушек Без парабенов Веганская косметика ANASTASIA BEVERLY HILLS Brow Powder Duo Дуэт пудры для бровей</code> | <code>0.0</code> |
|
663 |
+
* Loss: [<code>ContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#contrastiveloss) with these parameters:
|
664 |
+
```json
|
665 |
+
{
|
666 |
+
"distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
|
667 |
+
"margin": 0.5,
|
668 |
+
"size_average": true
|
669 |
+
}
|
670 |
+
```
|
671 |
+
|
672 |
+
### Evaluation Dataset
|
673 |
+
|
674 |
+
#### Unnamed Dataset
|
675 |
+
|
676 |
+
|
677 |
+
* Size: 2,338 evaluation samples
|
678 |
+
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
|
679 |
+
* Approximate statistics based on the first 1000 samples:
|
680 |
+
| | sentence1 | sentence2 | score |
|
681 |
+
|:--------|:--------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|:---------------------------------------------------------------|
|
682 |
+
| type | string | string | float |
|
683 |
+
| details | <ul><li>min: 26 tokens</li><li>mean: 104.98 tokens</li><li>max: 2048 tokens</li></ul> | <ul><li>min: 25 tokens</li><li>mean: 105.63 tokens</li><li>max: 2048 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.48</li><li>max: 1.0</li></ul> |
|
684 |
+
* Samples:
|
685 |
+
| sentence1 | sentence2 | score |
|
686 |
+
|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
|
687 |
+
| <code>Одежда и обувь Обувь Спортивная и рабочая обувь Рабочая спецобувь Искусственный каучук Полуботинки рабочие Китай PU+полиэфир 43 Мужской Китайский размер 36/RU36: длина стопы 23 см Китайский размер 37/RU37: длина стопы 23,5 см Китайский размер 38/RU37,5: длина стопы 24 см Китайский размер 39/RU38: длина стопы 24,5 см Китайский размер 40/RU38,5: длина стопы 25 см Китайский размер 41/RU39: длина стопы 25,5 см. Китайский размер 42/RU40: длина стопы 26 см. Китайский размер 43/RU41: длина стопы 26,5 см. Китайский размер 44/RU42: длина стопы 27 см. Шнурки Демисезон темно-бежевый Искусственные материалы темно-бежевый Замша Базовая коллекция 44 длина стопы 27 см Нейтральная Yuhudany Полуботинки рабочие Yuhudany</code> | <code>Одежда и обувь Обувь Спортивная и рабочая обувь Рабочая спецобувь Искусственный каучук Полуботинки рабочие Китай PU+полиэфир 43 Мужской Китайский размер 36/RU36: длина стопы 23 см Китайский размер 37/RU37: длина стопы 23,5 см Китайский размер 38/RU37,5: длина стопы 24 см Китайский размер 39/RU38: длина стопы 24,5 см Китайский размер 40/RU38,5: длина стопы 25 см Китайский размер 41/RU39: длина стопы 25,5 см. Китайский размер 42/RU40: длина стопы 26 см. Китайский размер 43/RU41: длина стопы 26,5 см. Китайский размер 44/RU42: длина стопы 27 см. Шнурки Демисезон темно-бежевый Искусственные материалы темно-бежевый Замша Базовая коллекция 44 длина стопы 27 см Нейтральная Yuhudany Полуботинки рабочие Yuhudany</code> | <code>1.0</code> |
|
688 |
+
| <code>EPG Строительство и ремонт Светильники и аксессуары Ночник Нет бренда Светильник-проектор Проекционные светильники для украшения детской комнаты, 72 режима освещения, перезаряжаемый белый шум, милые кролики, подарки для девочек</code> | <code>EPG Строительство и ремонт Светильники и аксессуары Ночник Нет бренда Светильник-проектор Проекционные светильники для украшения детской комнаты, 72 режима освещения, перезаряжаемый белый шум, милые кролики, подарки для девочек -kpa</code> | <code>1.0</code> |
|
689 |
+
| <code>EPG Строительство и ремонт Оснастка для инструмента Торцевая головка, бита Набо�� бит PZ2x150 мм - 10 штук. 10 Бита Китай 1/4" 150 Профессиональное назначение Односторонняя PZ2 Сталь Резьба 1/4" Шестигранник черный матовый Дрель Отвертка Шуруповерт Демонтажные работы MKSS Для монтажа Бита торсионная магнитная PZ2x150 мм, набор 10 штук, MK3074, MKSS</code> | <code>EPG Строительство и ремонт Оснастка для инструмента Торцевая головка, бита Набор бит PH2x200 мм - 5 штук. 5 Бита 1/4" Китай 200 Профессиональное назначение Односторонняя PH2 Сталь Резьба 1/4" Шестигранник черный матовый Дрель Отвертка Шуруповерт Демонтажные работы MKSS 5 Для монтажа Бита торсионная магнитная PH2x200 мм, набор 5 штук, MK3082, MKSS</code> | <code>0.0</code> |
|
690 |
+
* Loss: [<code>ContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#contrastiveloss) with these parameters:
|
691 |
+
```json
|
692 |
+
{
|
693 |
+
"distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
|
694 |
+
"margin": 0.5,
|
695 |
+
"size_average": true
|
696 |
+
}
|
697 |
+
```
|
698 |
+
|
699 |
+
### Training Hyperparameters
|
700 |
+
#### Non-Default Hyperparameters
|
701 |
+
|
702 |
+
- `eval_strategy`: steps
|
703 |
+
- `per_device_train_batch_size`: 16
|
704 |
+
- `per_device_eval_batch_size`: 16
|
705 |
+
- `num_train_epochs`: 2
|
706 |
+
- `warmup_ratio`: 0.1
|
707 |
+
- `fp16`: True
|
708 |
+
|
709 |
+
#### All Hyperparameters
|
710 |
+
<details><summary>Click to expand</summary>
|
711 |
+
|
712 |
+
- `overwrite_output_dir`: False
|
713 |
+
- `do_predict`: False
|
714 |
+
- `eval_strategy`: steps
|
715 |
+
- `prediction_loss_only`: True
|
716 |
+
- `per_device_train_batch_size`: 16
|
717 |
+
- `per_device_eval_batch_size`: 16
|
718 |
+
- `per_gpu_train_batch_size`: None
|
719 |
+
- `per_gpu_eval_batch_size`: None
|
720 |
+
- `gradient_accumulation_steps`: 1
|
721 |
+
- `eval_accumulation_steps`: None
|
722 |
+
- `torch_empty_cache_steps`: None
|
723 |
+
- `learning_rate`: 5e-05
|
724 |
+
- `weight_decay`: 0.0
|
725 |
+
- `adam_beta1`: 0.9
|
726 |
+
- `adam_beta2`: 0.999
|
727 |
+
- `adam_epsilon`: 1e-08
|
728 |
+
- `max_grad_norm`: 1.0
|
729 |
+
- `num_train_epochs`: 2
|
730 |
+
- `max_steps`: -1
|
731 |
+
- `lr_scheduler_type`: linear
|
732 |
+
- `lr_scheduler_kwargs`: {}
|
733 |
+
- `warmup_ratio`: 0.1
|
734 |
+
- `warmup_steps`: 0
|
735 |
+
- `log_level`: passive
|
736 |
+
- `log_level_replica`: warning
|
737 |
+
- `log_on_each_node`: True
|
738 |
+
- `logging_nan_inf_filter`: True
|
739 |
+
- `save_safetensors`: True
|
740 |
+
- `save_on_each_node`: False
|
741 |
+
- `save_only_model`: False
|
742 |
+
- `restore_callback_states_from_checkpoint`: False
|
743 |
+
- `no_cuda`: False
|
744 |
+
- `use_cpu`: False
|
745 |
+
- `use_mps_device`: False
|
746 |
+
- `seed`: 42
|
747 |
+
- `data_seed`: None
|
748 |
+
- `jit_mode_eval`: False
|
749 |
+
- `use_ipex`: False
|
750 |
+
- `bf16`: False
|
751 |
+
- `fp16`: True
|
752 |
+
- `fp16_opt_level`: O1
|
753 |
+
- `half_precision_backend`: auto
|
754 |
+
- `bf16_full_eval`: False
|
755 |
+
- `fp16_full_eval`: False
|
756 |
+
- `tf32`: None
|
757 |
+
- `local_rank`: 0
|
758 |
+
- `ddp_backend`: None
|
759 |
+
- `tpu_num_cores`: None
|
760 |
+
- `tpu_metrics_debug`: False
|
761 |
+
- `debug`: []
|
762 |
+
- `dataloader_drop_last`: False
|
763 |
+
- `dataloader_num_workers`: 0
|
764 |
+
- `dataloader_prefetch_factor`: None
|
765 |
+
- `past_index`: -1
|
766 |
+
- `disable_tqdm`: False
|
767 |
+
- `remove_unused_columns`: True
|
768 |
+
- `label_names`: None
|
769 |
+
- `load_best_model_at_end`: False
|
770 |
+
- `ignore_data_skip`: False
|
771 |
+
- `fsdp`: []
|
772 |
+
- `fsdp_min_num_params`: 0
|
773 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
774 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
775 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
776 |
+
- `deepspeed`: None
|
777 |
+
- `label_smoothing_factor`: 0.0
|
778 |
+
- `optim`: adamw_torch
|
779 |
+
- `optim_args`: None
|
780 |
+
- `adafactor`: False
|
781 |
+
- `group_by_length`: False
|
782 |
+
- `length_column_name`: length
|
783 |
+
- `ddp_find_unused_parameters`: None
|
784 |
+
- `ddp_bucket_cap_mb`: None
|
785 |
+
- `ddp_broadcast_buffers`: False
|
786 |
+
- `dataloader_pin_memory`: True
|
787 |
+
- `dataloader_persistent_workers`: False
|
788 |
+
- `skip_memory_metrics`: True
|
789 |
+
- `use_legacy_prediction_loop`: False
|
790 |
+
- `push_to_hub`: False
|
791 |
+
- `resume_from_checkpoint`: None
|
792 |
+
- `hub_model_id`: None
|
793 |
+
- `hub_strategy`: every_save
|
794 |
+
- `hub_private_repo`: False
|
795 |
+
- `hub_always_push`: False
|
796 |
+
- `gradient_checkpointing`: False
|
797 |
+
- `gradient_checkpointing_kwargs`: None
|
798 |
+
- `include_inputs_for_metrics`: False
|
799 |
+
- `eval_do_concat_batches`: True
|
800 |
+
- `fp16_backend`: auto
|
801 |
+
- `push_to_hub_model_id`: None
|
802 |
+
- `push_to_hub_organization`: None
|
803 |
+
- `mp_parameters`:
|
804 |
+
- `auto_find_batch_size`: False
|
805 |
+
- `full_determinism`: False
|
806 |
+
- `torchdynamo`: None
|
807 |
+
- `ray_scope`: last
|
808 |
+
- `ddp_timeout`: 1800
|
809 |
+
- `torch_compile`: False
|
810 |
+
- `torch_compile_backend`: None
|
811 |
+
- `torch_compile_mode`: None
|
812 |
+
- `dispatch_batches`: None
|
813 |
+
- `split_batches`: None
|
814 |
+
- `include_tokens_per_second`: False
|
815 |
+
- `include_num_input_tokens_seen`: False
|
816 |
+
- `neftune_noise_alpha`: None
|
817 |
+
- `optim_target_modules`: None
|
818 |
+
- `batch_eval_metrics`: False
|
819 |
+
- `eval_on_start`: False
|
820 |
+
- `eval_use_gather_object`: False
|
821 |
+
- `batch_sampler`: batch_sampler
|
822 |
+
- `multi_dataset_batch_sampler`: proportional
|
823 |
+
|
824 |
+
</details>
|
825 |
+
|
826 |
+
### Training Logs
|
827 |
+
| Epoch | Step | Training Loss | loss | ozon_max_ap |
|
828 |
+
|:------:|:------:|:-------------:|:------:|:-----------:|
|
829 |
+
| 0 | 0 | - | - | 0.6559 |
|
830 |
+
| 0.0686 | 5000 | 0.0272 | 0.0348 | 0.7813 |
|
831 |
+
| 0.1372 | 10000 | 0.0209 | 0.0319 | 0.7982 |
|
832 |
+
| 0.2058 | 15000 | 0.019 | 0.0295 | 0.8144 |
|
833 |
+
| 0.2744 | 20000 | 0.0178 | 0.0293 | 0.8093 |
|
834 |
+
| 0.3430 | 25000 | 0.0171 | 0.0273 | 0.8158 |
|
835 |
+
| 0.4116 | 30000 | 0.0166 | 0.0279 | 0.8288 |
|
836 |
+
| 0.4802 | 35000 | 0.0162 | 0.0273 | 0.8195 |
|
837 |
+
| 0.5488 | 40000 | 0.0159 | 0.0247 | 0.8350 |
|
838 |
+
| 0.6174 | 45000 | 0.0158 | 0.0282 | 0.8232 |
|
839 |
+
| 0.6860 | 50000 | 0.0153 | 0.0254 | 0.8321 |
|
840 |
+
| 0.7546 | 55000 | 0.0152 | 0.0245 | 0.8439 |
|
841 |
+
| 0.8232 | 60000 | 0.0149 | 0.0252 | 0.8422 |
|
842 |
+
| 0.8918 | 65000 | 0.0149 | 0.0244 | 0.8443 |
|
843 |
+
| 0.9604 | 70000 | 0.0148 | 0.0245 | 0.8396 |
|
844 |
+
| 1.0290 | 75000 | 0.0141 | 0.0244 | 0.8408 |
|
845 |
+
| 1.0976 | 80000 | 0.0133 | 0.0237 | 0.8504 |
|
846 |
+
| 1.1662 | 85000 | 0.0134 | 0.0227 | 0.8538 |
|
847 |
+
| 1.2348 | 90000 | 0.0133 | 0.0235 | 0.8474 |
|
848 |
+
| 1.3034 | 95000 | 0.0132 | 0.0237 | 0.8507 |
|
849 |
+
| 1.3720 | 100000 | 0.0131 | 0.0231 | 0.8552 |
|
850 |
+
| 1.4406 | 105000 | 0.0132 | 0.0226 | 0.8615 |
|
851 |
+
| 1.5092 | 110000 | 0.0131 | 0.0231 | 0.8576 |
|
852 |
+
| 1.5778 | 115000 | 0.013 | 0.0227 | 0.8601 |
|
853 |
+
| 1.6464 | 120000 | 0.013 | 0.0227 | 0.8587 |
|
854 |
+
| 1.7150 | 125000 | 0.013 | 0.0228 | 0.8594 |
|
855 |
+
| 1.7836 | 130000 | 0.0131 | 0.0224 | 0.8623 |
|
856 |
+
| 1.8522 | 135000 | 0.0128 | 0.0226 | 0.8583 |
|
857 |
+
| 1.9208 | 140000 | 0.0126 | 0.0228 | 0.8596 |
|
858 |
+
| 1.9894 | 145000 | 0.0126 | 0.0228 | 0.8618 |
|
859 |
+
|
860 |
+
|
861 |
+
### Framework Versions
|
862 |
+
- Python: 3.10.12
|
863 |
+
- Sentence Transformers: 3.0.1
|
864 |
+
- Transformers: 4.44.2
|
865 |
+
- PyTorch: 2.0.1+cu118
|
866 |
+
- Accelerate: 0.33.0
|
867 |
+
- Datasets: 2.21.0
|
868 |
+
- Tokenizers: 0.19.1
|
869 |
+
|
870 |
+
## Citation
|
871 |
+
|
872 |
+
### BibTeX
|
873 |
+
|
874 |
+
#### Sentence Transformers
|
875 |
+
```bibtex
|
876 |
+
@inproceedings{reimers-2019-sentence-bert,
|
877 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
878 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
879 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
880 |
+
month = "11",
|
881 |
+
year = "2019",
|
882 |
+
publisher = "Association for Computational Linguistics",
|
883 |
+
url = "https://arxiv.org/abs/1908.10084",
|
884 |
+
}
|
885 |
+
```
|
886 |
+
|
887 |
+
#### ContrastiveLoss
|
888 |
+
```bibtex
|
889 |
+
@inproceedings{hadsell2006dimensionality,
|
890 |
+
author={Hadsell, R. and Chopra, S. and LeCun, Y.},
|
891 |
+
booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
|
892 |
+
title={Dimensionality Reduction by Learning an Invariant Mapping},
|
893 |
+
year={2006},
|
894 |
+
volume={2},
|
895 |
+
number={},
|
896 |
+
pages={1735-1742},
|
897 |
+
doi={10.1109/CVPR.2006.100}
|
898 |
+
}
|
899 |
+
```
|
900 |
+
|
901 |
+
<!--
|
902 |
+
## Glossary
|
903 |
+
|
904 |
+
*Clearly define terms in order to be accessible across audiences.*
|
905 |
+
-->
|
906 |
+
|
907 |
+
<!--
|
908 |
+
## Model Card Authors
|
909 |
+
|
910 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
911 |
+
-->
|
912 |
+
|
913 |
+
<!--
|
914 |
+
## Model Card Contact
|
915 |
+
|
916 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
917 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,27 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "cointegrated/rubert-tiny2",
|
3 |
+
"architectures": [
|
4 |
+
"BertModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"emb_size": 312,
|
9 |
+
"gradient_checkpointing": false,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 312,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 600,
|
15 |
+
"layer_norm_eps": 1e-12,
|
16 |
+
"max_position_embeddings": 2048,
|
17 |
+
"model_type": "bert",
|
18 |
+
"num_attention_heads": 12,
|
19 |
+
"num_hidden_layers": 3,
|
20 |
+
"pad_token_id": 0,
|
21 |
+
"position_embedding_type": "absolute",
|
22 |
+
"torch_dtype": "float32",
|
23 |
+
"transformers_version": "4.44.2",
|
24 |
+
"type_vocab_size": 2,
|
25 |
+
"use_cache": true,
|
26 |
+
"vocab_size": 83828
|
27 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.0.1",
|
4 |
+
"transformers": "4.44.2",
|
5 |
+
"pytorch": "2.0.1+cu118"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": null
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:ec23966a26643fc171bf1b117f44e3f1b14d8351e5c429f20d71035e428e09e7
|
3 |
+
size 116781184
|
modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 2048,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": {
|
3 |
+
"content": "[CLS]",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"mask_token": {
|
10 |
+
"content": "[MASK]",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"pad_token": {
|
17 |
+
"content": "[PAD]",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"sep_token": {
|
24 |
+
"content": "[SEP]",
|
25 |
+
"lstrip": false,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"unk_token": {
|
31 |
+
"content": "[UNK]",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
}
|
37 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,64 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "[PAD]",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "[UNK]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "[CLS]",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "[SEP]",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"4": {
|
36 |
+
"content": "[MASK]",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"clean_up_tokenization_spaces": true,
|
45 |
+
"cls_token": "[CLS]",
|
46 |
+
"do_basic_tokenize": true,
|
47 |
+
"do_lower_case": false,
|
48 |
+
"mask_token": "[MASK]",
|
49 |
+
"max_length": 512,
|
50 |
+
"model_max_length": 2048,
|
51 |
+
"never_split": null,
|
52 |
+
"pad_to_multiple_of": null,
|
53 |
+
"pad_token": "[PAD]",
|
54 |
+
"pad_token_type_id": 0,
|
55 |
+
"padding_side": "right",
|
56 |
+
"sep_token": "[SEP]",
|
57 |
+
"stride": 0,
|
58 |
+
"strip_accents": null,
|
59 |
+
"tokenize_chinese_chars": true,
|
60 |
+
"tokenizer_class": "BertTokenizer",
|
61 |
+
"truncation_side": "right",
|
62 |
+
"truncation_strategy": "longest_first",
|
63 |
+
"unk_token": "[UNK]"
|
64 |
+
}
|
training_args.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:7f8d061bf020f0d57a8f3962a913933240693316030cb7d5db8fecc938511acf
|
3 |
+
size 5051
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|