AhmedBadawy11 commited on
Commit
b0fa122
1 Parent(s): 51bfecf

Add new SentenceTransformer model.

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 384,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,573 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: intfloat/multilingual-e5-small
3
+ datasets: []
4
+ language: []
5
+ library_name: sentence-transformers
6
+ pipeline_tag: sentence-similarity
7
+ tags:
8
+ - sentence-transformers
9
+ - sentence-similarity
10
+ - feature-extraction
11
+ - generated_from_trainer
12
+ - dataset_size:1193
13
+ - loss:MultipleNegativesRankingLoss
14
+ widget:
15
+ - source_sentence: في ديسمبر 2011، الفرقة اختارت اسمها الذي هو إكسو، مع أسماء إكسو-كي
16
+ للفرقة الكورية وإكسو-إم للفرقة الصينية. وتم التعريف عن الأعضاء الأثني عشر بشكل
17
+ منفرد من خلال 23 تيرز "إعلان" مختلف صدر من ديسمبر 2011 إلى فبراير 2012. وكان كل
18
+ من كاي ولوهان وتاو وتشين، أول أربعة أعضاء يتم التعريف عنهم وقد ظهروا لأول مرة
19
+ في أول أداء علني لهم في حدث نظام بث سول "دايجو دايجون" بتاريخ 29 ديسمبر 2011.
20
+ sentences:
21
+ - من هم أول أربعة الأعضاء اللذين تم التعرف عليهم؟
22
+ - في أي عام إنتهى حكم زين العابدين؟
23
+ - الى ماذا أشار اسم پلشت؟
24
+ - source_sentence: يستطيع السرطان أن يصيب كل المراحل العمرية عند الإنسان حتى الأجنة،
25
+ ولكن تزيد مخاطر الإصابة به كلما تقدم الإنسان في العمر. ويسبب السرطان الوفاة بنسبة
26
+ 13% من جميع حالات الوفاة. ويشير مجتمع السرطان الأمريكي ACS إلى موت 7.6 مليون شخص
27
+ مريض بالسرطان في العالم في عام 2007. كما يصيب السرطان الإنسان فإن أشكال منه تصيب
28
+ الحيوان والنبات على حد سواء.
29
+ sentences:
30
+ - كم كان عمر اللاعب رونالدو عند فوزه بجائزه الفيفا لكونه افضل لاعب لأول مره؟
31
+ - ما هى نسب الوفاة بالسرطان؟
32
+ - قبل اعتزاله من العب, مع اي فريق قضى الاعب رونالدو اخر سنتين؟
33
+ - source_sentence: 'يسرا (10 مارس 1951 -)، ممثلة مصرية، قدمت عدداً كبير من الأعمال
34
+ في السينما المصرية والدراما التلفزيونية، وهي سفيرة نوايا حسنة لبرنامج الأمم المتحدة
35
+ الإنمائي. بدأت حياتها السينمائية في أواخر السبعينيات القرن العشرين، مع أول ظهور
36
+ لها عام 1973 على الشاشة الفضية، تبرر عملها في بداياتها ببعض الأفلام التي قد لا
37
+ ترقى إلى مستوى فني جيد بقولها: «عندما بدأت كانت بداخلي شحنة كبيرة للتمثيل، وكان
38
+ مجرد تفريغها يرضيني، وشيئا فشيئا أدركت الفرق بين الانتشار والاختيار»، قبل الأشتغال
39
+ في مجال الفن والسينما، استمر مشوارها مع السينما المصرية من فيلم لآخر حتى استطاعت
40
+ أن تكتسب شعبية كبيرة في أواخر الثمانينيات القرن العشرين ومطلع تسعينيات القرن العشرين،
41
+ ومنها مجموعة من الأفلام التي وقفت فيها أمام الفنان عادل إمام، وتتحدث دوماً عن
42
+ تأثير المخرج يوسف شاهين والفنان عادل إمام على مشوارها الفني حيث تعاملت مع المخرج
43
+ يوسف شاهين لأول مرة من خلال فيلم حدوتة مصرية، أما عادل إمام فقد مثلا معا لأول
44
+ مرة من خلال فيلم شباب يرقص فوق النار في عام 1978، وقدمت بعدها معه نحو 15 فيلماً.'
45
+ sentences:
46
+ - أين ولد عنترة؟
47
+ - متى ولدت يسرا؟
48
+ - في أي عام إستقلت الأردن من فلسطين الإنتدابية؟
49
+ - source_sentence: 'في صباح اليوم التّالي اجتمع الرّسول الكريم في قبيلة قريش وأخبرهم
50
+ بما حصل معه، فقال أكثر النّاس: والله هذا الأمر لبيّن، وإنّ الرّسول لصادق ٌ آمين،
51
+ وإنّ العير لتطرد شهرآ من مكّة إلى الشام مدبرة، وشهراً مقبلة، وقال بعضهم: إنّ هذا
52
+ القول لا يصدّق أفيذهب محمّدٌ ويرجع إلى مكّة في ليلة واحدة؟! فارتدّ كثيرٌ ممّن
53
+ كان قد أسلم، وذهب النّاس إلى أبي بكر، فقالوا له: يا أبا بكر إنّ صاحبك محمّد يزعم
54
+ أنّه قد جاء من بيت المقدس وصلّى فيه ورجع إلى مكّة، فقال لهم أبو بكر: إنّكم تكذبون
55
+ على رسول الله، فقال��ا: بلى، ها هو الرّسول في المسجد يحدّث الناس بما حدث معه، فقال
56
+ أبو بكر: والله لئن كان قال هذا الكلام لقد صدق، فما العجب من ذلك! فوالله إنّه ليخبرني
57
+ أنّ الخبر يأتيه من الله من السّماء إلى الأرض في ساعةٍ من ليلٍ أو نهار فأصدّقه،
58
+ فهذا أبعد ممّا تعجبون منه.'
59
+ sentences:
60
+ - متى أخبر الرسول قبيلة قريش ما حصل معه؟
61
+ - من ابوه؟
62
+ - لماذا قال انها مبررة؟
63
+ - source_sentence: 'إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة
64
+ المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي
65
+ في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق، وتفصلها القناة
66
+ الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر الرئيسي من إنجلترا من الأجزاء
67
+ الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي، كما تشمل أيضًا
68
+ أكثر من 100 جزيرة صغيرة، مثل جزر سيلي وجزيرة وايت.'
69
+ sentences:
70
+ - ما الامثلة لجزر انجلترا؟
71
+ - فى اى بلد نشأ عيد الام؟
72
+ - ماهي طبيعية النظام السياسي في النمسا؟
73
+ ---
74
+
75
+ # SentenceTransformer based on intfloat/multilingual-e5-small
76
+
77
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
78
+
79
+ ## Model Details
80
+
81
+ ### Model Description
82
+ - **Model Type:** Sentence Transformer
83
+ - **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small) <!-- at revision fd1525a9fd15316a2d503bf26ab031a61d056e98 -->
84
+ - **Maximum Sequence Length:** 512 tokens
85
+ - **Output Dimensionality:** 384 tokens
86
+ - **Similarity Function:** Cosine Similarity
87
+ <!-- - **Training Dataset:** Unknown -->
88
+ <!-- - **Language:** Unknown -->
89
+ <!-- - **License:** Unknown -->
90
+
91
+ ### Model Sources
92
+
93
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
94
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
95
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
96
+
97
+ ### Full Model Architecture
98
+
99
+ ```
100
+ SentenceTransformer(
101
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
102
+ (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
103
+ (2): Normalize()
104
+ )
105
+ ```
106
+
107
+ ## Usage
108
+
109
+ ### Direct Usage (Sentence Transformers)
110
+
111
+ First install the Sentence Transformers library:
112
+
113
+ ```bash
114
+ pip install -U sentence-transformers
115
+ ```
116
+
117
+ Then you can load this model and run inference.
118
+ ```python
119
+ from sentence_transformers import SentenceTransformer
120
+
121
+ # Download from the 🤗 Hub
122
+ model = SentenceTransformer("AhmedBadawy11/multilingual-e5-small-finetuned-ar")
123
+ # Run inference
124
+ sentences = [
125
+ 'إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي، كما تشمل أيضًا أكثر من 100 جزيرة صغيرة، مثل جزر سيلي وجزيرة وايت.',
126
+ 'ما الامثلة لجزر انجلترا؟',
127
+ 'ماهي طبيعية النظام السياسي في النمسا؟',
128
+ ]
129
+ embeddings = model.encode(sentences)
130
+ print(embeddings.shape)
131
+ # [3, 384]
132
+
133
+ # Get the similarity scores for the embeddings
134
+ similarities = model.similarity(embeddings, embeddings)
135
+ print(similarities.shape)
136
+ # [3, 3]
137
+ ```
138
+
139
+ <!--
140
+ ### Direct Usage (Transformers)
141
+
142
+ <details><summary>Click to see the direct usage in Transformers</summary>
143
+
144
+ </details>
145
+ -->
146
+
147
+ <!--
148
+ ### Downstream Usage (Sentence Transformers)
149
+
150
+ You can finetune this model on your own dataset.
151
+
152
+ <details><summary>Click to expand</summary>
153
+
154
+ </details>
155
+ -->
156
+
157
+ <!--
158
+ ### Out-of-Scope Use
159
+
160
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
161
+ -->
162
+
163
+ <!--
164
+ ## Bias, Risks and Limitations
165
+
166
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
167
+ -->
168
+
169
+ <!--
170
+ ### Recommendations
171
+
172
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
173
+ -->
174
+
175
+ ## Training Details
176
+
177
+ ### Training Dataset
178
+
179
+ #### Unnamed Dataset
180
+
181
+
182
+ * Size: 1,193 training samples
183
+ * Columns: <code>positive</code> and <code>anchor</code>
184
+ * Approximate statistics based on the first 1000 samples:
185
+ | | positive | anchor |
186
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
187
+ | type | string | string |
188
+ | details | <ul><li>min: 51 tokens</li><li>mean: 173.61 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 12.68 tokens</li><li>max: 28 tokens</li></ul> |
189
+ * Samples:
190
+ | positive | anchor |
191
+ |:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------|
192
+ | <code>جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا.</code> | <code>- من هو جمال أحمد حمزة خاشقجي؟</code> |
193
+ | <code>جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا.</code> | <code>- متى ولد جمال أحمد حمزة خاشقجي وتوفي؟ ال</code> |
194
+ | <code>جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا.</code> | <code>- في أي مدينة ولد جمال أحمد حمزة خاشقجي؟ ال</code> |
195
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
196
+ ```json
197
+ {
198
+ "scale": 20.0,
199
+ "similarity_fct": "cos_sim"
200
+ }
201
+ ```
202
+
203
+ ### Evaluation Dataset
204
+
205
+ #### Unnamed Dataset
206
+
207
+
208
+ * Size: 202 evaluation samples
209
+ * Columns: <code>positive</code> and <code>anchor</code>
210
+ * Approximate statistics based on the first 1000 samples:
211
+ | | positive | anchor |
212
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
213
+ | type | string | string |
214
+ | details | <ul><li>min: 62 tokens</li><li>mean: 178.02 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 12.32 tokens</li><li>max: 25 tokens</li></ul> |
215
+ * Samples:
216
+ | positive | anchor |
217
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------|
218
+ | <code>حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد، وعمُّه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر، وهو خير أعمامه لقوله: «خَيْرُ إِخْوَتِي عَلِيٌّ، وَخَيْرُ أَعْمَامِي حَمْزَةُ رَضِيَ اللَّهُ عَنْهُمَا».</code> | <code>بما وصفه رسول الله؟</code> |
219
+ | <code>أسلم حمزة في السنة الثانية من بعثة النبي محمد، فلمَّا أسلم علمت قريش أن الرسولَ محمداً قد عز وامتنع وأن حمزة سيمنعه، فكفّوا عن بعض ما كانوا ينالون منه. ثم هاجر حمزة إلى المدينة المنورة، فآخى الرسولُ بينه وبين زيد بن حارثة. وكان أولُ لواء عقده الرسولُ محمدٌ هو اللواءَ الذي عقده لحمزة، وشهد حمزةُ غزوة بدر، وقَتَلَ فيها شيبة بن ربيعة م��ارزةً، وقتل غيرَه كثيراً من المشركين، كما شهد غزوة أحد، فقُتل بها سنة 3هـ، وكان قد قَتَلَ من المشركين قبل أن يُقتل واحداً وثلاثين نفساً، وكان الذي قتله هو وحشي بن حرب الحبشي غلامُ جبير بن مطعم، ومثَّل به المشركون، وبقرت هند بنت عتبة بطنَه فأخرجت كبده، فجعلت تلوكها فلم تسغها فلفظتها، فقال الرسولُ محمدٌ: ، وخرج الرسولُ يلتمس حمزة، فوجده ببطن الوادي قد مُثِّل به، فلم ير منظراً كان أوجع لقلبه منه فقال: . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد.</code> | <code>و ماذا فعل فى غزوة بدر؟</code> |
220
+ | <code>القمر هو القمر الطبيعي الوَحيد للأرض بالإضافة إلى أنه خامس أكبر قمرٍ طبيعيٍ في المجموعة الشمسية. فهو يُعَدُ أكبر قمرٍ طبيعيٍ في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له، حيث أن قطره يصل إلى ربع قطر الأرض، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض، هذا بالإضافة إلى أنه يُعَدُ ثاني أعلى قمرٍ من ناحية الكثافة بعد قمر إيو. هذا ويتسم القمر الأرضي حركته التزامنية مع كوكبه (الأرض)، عارضاً دائماً الوجه نفسه؛ حيث يتميز الجانب القريب بمنطقةٍ بركانيةٍ منخفضةٍ مظلمةٍ، والتي تقع فيما بين مرتفعات القشرة الأرضية القديمة البراقة والفوهات الصدمية الشاهقة. كما يُلاحظ أن القمر الأرضي هو أكثر جسمٍ لامعٍ في السماء ليلاً، وعموماً هو الجسم الأكثر لمعاناً بعد الشمس، وهذا على الرغم من أن سطحه معتم جداً، حيث أن له انعكاساً مماثلاً للفحم. كان بروز القمر في السماء المظلمة ليلاً، ودورته المنتظمة الأطوار (المراحل) قد جعل له على مر العصور القديمة تأثيراً ثقافياً هاماً على كلٍ من اللغة، التقويم القمري، ، والأساطير القديمة، المتمثلة في آلهة القمر والتي منها عبر الحضارات: "خونسو" في الديانة المصرية القديمة، "تشانغ" في الحضارة الصينية وكذلك "ماما قيلا" في حضارة الإنكا. ومن السمات الكامنة للقمر كذلك، تأثير جاذبيته التي تسفر عن وقوع عمليتي مد وجزر المحيطات وإطالة الدقيقة (نتيجة تسارع المد والجزر) لليوم. مع ملاحظة أن المسافة المدارية الحالية للقمر، والتي تُقَدَرُ بثلاثين مرةٍ قدر قطر الكرة الأرضية، تتسبب في أن يبدو القمر أغلب الوقت بنفس حجمه دون تغيير في السماء كما هو الحال مع الشمس، مما يسمح له (القمر) بأن يغطي الشمس بصورةٍ شبه تامةٍ في ظاهرة الكسوف الكلي للشمس.</code> | <code>كم المسافة المدارية للقمر؟</code> |
221
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
222
+ ```json
223
+ {
224
+ "scale": 20.0,
225
+ "similarity_fct": "cos_sim"
226
+ }
227
+ ```
228
+
229
+ ### Training Hyperparameters
230
+ #### Non-Default Hyperparameters
231
+
232
+ - `eval_strategy`: steps
233
+ - `per_device_train_batch_size`: 10
234
+ - `per_device_eval_batch_size`: 10
235
+ - `learning_rate`: 2e-05
236
+ - `weight_decay`: 0.01
237
+ - `num_train_epochs`: 30
238
+ - `warmup_ratio`: 0.1
239
+ - `fp16`: True
240
+ - `load_best_model_at_end`: True
241
+ - `batch_sampler`: no_duplicates
242
+
243
+ #### All Hyperparameters
244
+ <details><summary>Click to expand</summary>
245
+
246
+ - `overwrite_output_dir`: False
247
+ - `do_predict`: False
248
+ - `eval_strategy`: steps
249
+ - `prediction_loss_only`: True
250
+ - `per_device_train_batch_size`: 10
251
+ - `per_device_eval_batch_size`: 10
252
+ - `per_gpu_train_batch_size`: None
253
+ - `per_gpu_eval_batch_size`: None
254
+ - `gradient_accumulation_steps`: 1
255
+ - `eval_accumulation_steps`: None
256
+ - `learning_rate`: 2e-05
257
+ - `weight_decay`: 0.01
258
+ - `adam_beta1`: 0.9
259
+ - `adam_beta2`: 0.999
260
+ - `adam_epsilon`: 1e-08
261
+ - `max_grad_norm`: 1.0
262
+ - `num_train_epochs`: 30
263
+ - `max_steps`: -1
264
+ - `lr_scheduler_type`: linear
265
+ - `lr_scheduler_kwargs`: {}
266
+ - `warmup_ratio`: 0.1
267
+ - `warmup_steps`: 0
268
+ - `log_level`: passive
269
+ - `log_level_replica`: warning
270
+ - `log_on_each_node`: True
271
+ - `logging_nan_inf_filter`: True
272
+ - `save_safetensors`: True
273
+ - `save_on_each_node`: False
274
+ - `save_only_model`: False
275
+ - `restore_callback_states_from_checkpoint`: False
276
+ - `no_cuda`: False
277
+ - `use_cpu`: False
278
+ - `use_mps_device`: False
279
+ - `seed`: 42
280
+ - `data_seed`: None
281
+ - `jit_mode_eval`: False
282
+ - `use_ipex`: False
283
+ - `bf16`: False
284
+ - `fp16`: True
285
+ - `fp16_opt_level`: O1
286
+ - `half_precision_backend`: auto
287
+ - `bf16_full_eval`: False
288
+ - `fp16_full_eval`: False
289
+ - `tf32`: None
290
+ - `local_rank`: 0
291
+ - `ddp_backend`: None
292
+ - `tpu_num_cores`: None
293
+ - `tpu_metrics_debug`: False
294
+ - `debug`: []
295
+ - `dataloader_drop_last`: False
296
+ - `dataloader_num_workers`: 0
297
+ - `dataloader_prefetch_factor`: None
298
+ - `past_index`: -1
299
+ - `disable_tqdm`: False
300
+ - `remove_unused_columns`: True
301
+ - `label_names`: None
302
+ - `load_best_model_at_end`: True
303
+ - `ignore_data_skip`: False
304
+ - `fsdp`: []
305
+ - `fsdp_min_num_params`: 0
306
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
307
+ - `fsdp_transformer_layer_cls_to_wrap`: None
308
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
309
+ - `deepspeed`: None
310
+ - `label_smoothing_factor`: 0.0
311
+ - `optim`: adamw_torch
312
+ - `optim_args`: None
313
+ - `adafactor`: False
314
+ - `group_by_length`: False
315
+ - `length_column_name`: length
316
+ - `ddp_find_unused_parameters`: None
317
+ - `ddp_bucket_cap_mb`: None
318
+ - `ddp_broadcast_buffers`: False
319
+ - `dataloader_pin_memory`: True
320
+ - `dataloader_persistent_workers`: False
321
+ - `skip_memory_metrics`: True
322
+ - `use_legacy_prediction_loop`: False
323
+ - `push_to_hub`: False
324
+ - `resume_from_checkpoint`: None
325
+ - `hub_model_id`: None
326
+ - `hub_strategy`: every_save
327
+ - `hub_private_repo`: False
328
+ - `hub_always_push`: False
329
+ - `gradient_checkpointing`: False
330
+ - `gradient_checkpointing_kwargs`: None
331
+ - `include_inputs_for_metrics`: False
332
+ - `eval_do_concat_batches`: True
333
+ - `fp16_backend`: auto
334
+ - `push_to_hub_model_id`: None
335
+ - `push_to_hub_organization`: None
336
+ - `mp_parameters`:
337
+ - `auto_find_batch_size`: False
338
+ - `full_determinism`: False
339
+ - `torchdynamo`: None
340
+ - `ray_scope`: last
341
+ - `ddp_timeout`: 1800
342
+ - `torch_compile`: False
343
+ - `torch_compile_backend`: None
344
+ - `torch_compile_mode`: None
345
+ - `dispatch_batches`: None
346
+ - `split_batches`: None
347
+ - `include_tokens_per_second`: False
348
+ - `include_num_input_tokens_seen`: False
349
+ - `neftune_noise_alpha`: None
350
+ - `optim_target_modules`: None
351
+ - `batch_eval_metrics`: False
352
+ - `eval_on_start`: False
353
+ - `batch_sampler`: no_duplicates
354
+ - `multi_dataset_batch_sampler`: proportional
355
+
356
+ </details>
357
+
358
+ ### Training Logs
359
+ <details><summary>Click to expand</summary>
360
+
361
+ | Epoch | Step | Training Loss | loss |
362
+ |:----------:|:-------:|:-------------:|:----------:|
363
+ | 0.3333 | 50 | 1.1123 | - |
364
+ | 0.6667 | 100 | 0.8668 | 0.4901 |
365
+ | 1.0 | 150 | 0.2325 | - |
366
+ | 1.3333 | 200 | 0.7716 | 0.4220 |
367
+ | 1.6667 | 250 | 0.6343 | - |
368
+ | **2.0** | **300** | **0.1111** | **0.4935** |
369
+ | 2.3333 | 350 | 0.5677 | - |
370
+ | 2.6667 | 400 | 0.4588 | 0.4456 |
371
+ | 3.0 | 450 | 0.0711 | - |
372
+ | 3.3333 | 500 | 0.3811 | 0.4628 |
373
+ | 3.6667 | 550 | 0.3077 | - |
374
+ | 4.0 | 600 | 0.0332 | 0.5094 |
375
+ | 4.3333 | 650 | 0.2041 | - |
376
+ | 4.6667 | 700 | 0.2032 | 0.5058 |
377
+ | 5.0 | 750 | 0.0147 | - |
378
+ | 5.3333 | 800 | 0.1282 | 0.5928 |
379
+ | 5.6667 | 850 | 0.1462 | - |
380
+ | 6.0 | 900 | 0.0072 | 0.5126 |
381
+ | 6.3333 | 950 | 0.1108 | - |
382
+ | 6.6667 | 1000 | 0.0826 | 0.5600 |
383
+ | 7.0 | 1050 | 0.0047 | - |
384
+ | 7.3333 | 1100 | 0.0736 | 0.5639 |
385
+ | 7.6667 | 1150 | 0.0705 | - |
386
+ | 8.0 | 1200 | 0.0049 | 0.5298 |
387
+ | 8.3333 | 1250 | 0.0467 | - |
388
+ | 8.6667 | 1300 | 0.0471 | 0.5729 |
389
+ | 9.0 | 1350 | 0.0026 | - |
390
+ | 9.3333 | 1400 | 0.0286 | 0.5728 |
391
+ | 9.6667 | 1450 | 0.0233 | - |
392
+ | 10.0 | 1500 | 0.0026 | 0.5323 |
393
+ | 10.3333 | 1550 | 0.0187 | - |
394
+ | 10.6667 | 1600 | 0.0257 | 0.6122 |
395
+ | 11.0 | 1650 | 0.0021 | - |
396
+ | 11.3333 | 1700 | 0.0134 | 0.6243 |
397
+ | 11.6667 | 1750 | 0.017 | - |
398
+ | 12.0 | 1800 | 0.0017 | 0.5424 |
399
+ | 12.3333 | 1850 | 0.0086 | - |
400
+ | 12.6667 | 1900 | 0.0099 | 0.6278 |
401
+ | 13.0 | 1950 | 0.0015 | - |
402
+ | 13.3333 | 2000 | 0.0047 | 0.5956 |
403
+ | 13.6667 | 2050 | 0.0059 | - |
404
+ | 14.0 | 2100 | 0.0013 | 0.5540 |
405
+ | 0.4167 | 50 | 0.0679 | - |
406
+ | 0.8333 | 100 | 0.0287 | 0.6804 |
407
+ | 0.3333 | 50 | 0.0022 | - |
408
+ | 0.6667 | 100 | 0.0052 | 0.6104 |
409
+ | 1.0 | 150 | 0.001 | - |
410
+ | 1.3333 | 200 | 0.0027 | 0.6163 |
411
+ | 1.6667 | 250 | 0.0022 | - |
412
+ | **2.0** | **300** | **0.0007** | **0.5714** |
413
+ | 2.3333 | 350 | 0.003 | - |
414
+ | 2.6667 | 400 | 0.0031 | 0.5855 |
415
+ | 3.0 | 450 | 0.0006 | - |
416
+ | 3.3333 | 500 | 0.0024 | 0.5832 |
417
+ | 3.6667 | 550 | 0.0113 | - |
418
+ | 4.0 | 600 | 0.0008 | 0.6035 |
419
+ | 0.3333 | 50 | 0.002 | - |
420
+ | 0.6667 | 100 | 0.0054 | 0.6003 |
421
+ | 1.0 | 150 | 0.0005 | - |
422
+ | 1.3333 | 200 | 0.0007 | 0.6455 |
423
+ | 1.6667 | 250 | 0.0006 | - |
424
+ | **2.0** | **300** | **0.0003** | **0.5867** |
425
+ | 2.3333 | 350 | 0.0021 | - |
426
+ | 2.6667 | 400 | 0.0022 | 0.5723 |
427
+ | 3.0 | 450 | 0.0011 | - |
428
+ | 3.3333 | 500 | 0.0136 | 0.6295 |
429
+ | 3.6667 | 550 | 0.007 | - |
430
+ | 4.0 | 600 | 0.001 | 0.6163 |
431
+ | 4.3333 | 650 | 0.0089 | - |
432
+ | 4.6667 | 700 | 0.0058 | 0.6816 |
433
+ | 5.0 | 750 | 0.0013 | - |
434
+ | 5.3333 | 800 | 0.0023 | 0.6337 |
435
+ | 5.6667 | 850 | 0.0014 | - |
436
+ | 6.0 | 900 | 0.0006 | 0.5974 |
437
+ | 6.3333 | 950 | 0.001 | - |
438
+ | 6.6667 | 1000 | 0.0009 | 0.6871 |
439
+ | 7.0 | 1050 | 0.0004 | - |
440
+ | 7.3333 | 1100 | 0.0005 | 0.6807 |
441
+ | 7.6667 | 1150 | 0.0007 | - |
442
+ | 8.0 | 1200 | 0.0004 | 0.6377 |
443
+ | 8.3333 | 1250 | 0.0003 | - |
444
+ | 8.6667 | 1300 | 0.0005 | 0.6099 |
445
+ | 9.0 | 1350 | 0.0002 | - |
446
+ | 9.3333 | 1400 | 0.0004 | 0.6636 |
447
+ | 9.6667 | 1450 | 0.0004 | - |
448
+ | 10.0 | 1500 | 0.0003 | 0.6657 |
449
+ | 10.3333 | 1550 | 0.0003 | - |
450
+ | 10.6667 | 1600 | 0.0003 | 0.6837 |
451
+ | 11.0 | 1650 | 0.0002 | - |
452
+ | 11.3333 | 1700 | 0.0002 | 0.6655 |
453
+ | 11.6667 | 1750 | 0.0002 | - |
454
+ | 12.0 | 1800 | 0.0002 | 0.6687 |
455
+ | 12.3333 | 1850 | 0.0002 | - |
456
+ | 12.6667 | 1900 | 0.0002 | 0.6852 |
457
+ | 13.0 | 1950 | 0.0002 | - |
458
+ | 13.3333 | 2000 | 0.0002 | 0.6802 |
459
+ | 13.6667 | 2050 | 0.0002 | - |
460
+ | 14.0 | 2100 | 0.0002 | 0.6837 |
461
+ | 14.3333 | 2150 | 0.0002 | - |
462
+ | 14.6667 | 2200 | 0.0003 | 0.7097 |
463
+ | 15.0 | 2250 | 0.0002 | - |
464
+ | 15.3333 | 2300 | 0.0002 | 0.6871 |
465
+ | 15.6667 | 2350 | 0.0003 | - |
466
+ | 16.0 | 2400 | 0.0002 | 0.6774 |
467
+ | 16.3333 | 2450 | 0.0002 | - |
468
+ | 16.6667 | 2500 | 0.0002 | 0.6864 |
469
+ | 17.0 | 2550 | 0.0001 | - |
470
+ | 17.3333 | 2600 | 0.0002 | 0.6970 |
471
+ | 17.6667 | 2650 | 0.0002 | - |
472
+ | 18.0 | 2700 | 0.0001 | 0.6883 |
473
+ | 18.3333 | 2750 | 0.0002 | - |
474
+ | 18.6667 | 2800 | 0.0002 | 0.7124 |
475
+ | 19.0 | 2850 | 0.0001 | - |
476
+ | 19.3333 | 2900 | 0.0002 | 0.7006 |
477
+ | 19.6667 | 2950 | 0.0002 | - |
478
+ | 20.0 | 3000 | 0.0001 | 0.6969 |
479
+ | 20.3333 | 3050 | 0.0001 | - |
480
+ | 20.6667 | 3100 | 0.0001 | 0.7102 |
481
+ | 21.0 | 3150 | 0.0001 | - |
482
+ | 21.3333 | 3200 | 0.0001 | 0.6979 |
483
+ | 21.6667 | 3250 | 0.0001 | - |
484
+ | 22.0 | 3300 | 0.0001 | 0.7192 |
485
+ | 22.3333 | 3350 | 0.0001 | - |
486
+ | 22.6667 | 3400 | 0.0001 | 0.7169 |
487
+ | 23.0 | 3450 | 0.0001 | - |
488
+ | 23.3333 | 3500 | 0.0001 | 0.7235 |
489
+ | 0.6667 | 50 | 0.03 | - |
490
+ | 1.3333 | 100 | 0.027 | 0.8348 |
491
+ | 0.1672 | 50 | 0.0001 | - |
492
+ | 0.3344 | 100 | 0.0001 | 0.4700 |
493
+ | 0.5017 | 150 | 0.0001 | - |
494
+ | 0.6689 | 200 | 0.0001 | 0.4949 |
495
+ | 0.8361 | 250 | 0.0 | - |
496
+ | **1.0033** | **300** | **0.0001** | **0.4648** |
497
+ | 0.1672 | 50 | 0.0001 | - |
498
+ | 0.3344 | 100 | 0.0 | 0.4727 |
499
+ | 0.5017 | 150 | 0.0 | - |
500
+ | 0.6689 | 200 | 0.0 | 0.4947 |
501
+ | 0.8361 | 250 | 0.0 | - |
502
+ | **1.0033** | **300** | **0.0** | **0.4778** |
503
+ | 0.4167 | 50 | 0.0301 | - |
504
+ | 0.8333 | 100 | 0.0084 | 0.8593 |
505
+ | 1.25 | 150 | 0.0216 | - |
506
+ | 1.6667 | 200 | 0.0175 | 0.8385 |
507
+ | 2.0833 | 250 | 0.0043 | - |
508
+ | **2.5** | **300** | **0.0141** | **0.8201** |
509
+ | 2.9167 | 350 | 0.004 | - |
510
+ | 3.3333 | 400 | 0.0049 | 0.8553 |
511
+ | 3.75 | 450 | 0.0036 | - |
512
+ | 4.1667 | 500 | 0.0042 | 0.8287 |
513
+ | 4.5833 | 550 | 0.003 | - |
514
+ | 5.0 | 600 | 0.0011 | 0.8337 |
515
+
516
+ * The bold row denotes the saved checkpoint.
517
+ </details>
518
+
519
+ ### Framework Versions
520
+ - Python: 3.10.12
521
+ - Sentence Transformers: 3.0.1
522
+ - Transformers: 4.42.4
523
+ - PyTorch: 2.3.1+cu121
524
+ - Accelerate: 0.27.0
525
+ - Datasets: 2.21.0
526
+ - Tokenizers: 0.19.1
527
+
528
+ ## Citation
529
+
530
+ ### BibTeX
531
+
532
+ #### Sentence Transformers
533
+ ```bibtex
534
+ @inproceedings{reimers-2019-sentence-bert,
535
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
536
+ author = "Reimers, Nils and Gurevych, Iryna",
537
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
538
+ month = "11",
539
+ year = "2019",
540
+ publisher = "Association for Computational Linguistics",
541
+ url = "https://arxiv.org/abs/1908.10084",
542
+ }
543
+ ```
544
+
545
+ #### MultipleNegativesRankingLoss
546
+ ```bibtex
547
+ @misc{henderson2017efficient,
548
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
549
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
550
+ year={2017},
551
+ eprint={1705.00652},
552
+ archivePrefix={arXiv},
553
+ primaryClass={cs.CL}
554
+ }
555
+ ```
556
+
557
+ <!--
558
+ ## Glossary
559
+
560
+ *Clearly define terms in order to be accessible across audiences.*
561
+ -->
562
+
563
+ <!--
564
+ ## Model Card Authors
565
+
566
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
567
+ -->
568
+
569
+ <!--
570
+ ## Model Card Contact
571
+
572
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
573
+ -->
config.json ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "intfloat/multilingual-e5-small",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "hidden_act": "gelu",
9
+ "hidden_dropout_prob": 0.1,
10
+ "hidden_size": 384,
11
+ "initializer_range": 0.02,
12
+ "intermediate_size": 1536,
13
+ "layer_norm_eps": 1e-12,
14
+ "max_position_embeddings": 512,
15
+ "model_type": "bert",
16
+ "num_attention_heads": 12,
17
+ "num_hidden_layers": 12,
18
+ "pad_token_id": 0,
19
+ "position_embedding_type": "absolute",
20
+ "tokenizer_class": "XLMRobertaTokenizer",
21
+ "torch_dtype": "float32",
22
+ "transformers_version": "4.42.4",
23
+ "type_vocab_size": 2,
24
+ "use_cache": true,
25
+ "vocab_size": 250037
26
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.42.4",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c6638d93122607f2b00b7d558c5c48c529ebd1be835b232a9ab2f84916e96c40
3
+ size 470637416
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ef04f2b385d1514f500e779207ace0f53e30895ce37563179e29f4022d28ca38
3
+ size 17083053
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 512,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "sp_model_kwargs": {},
53
+ "tokenizer_class": "XLMRobertaTokenizer",
54
+ "unk_token": "<unk>"
55
+ }