bourdoiscatie commited on
Commit
677993f
1 Parent(s): 1b8eb89

Training complete

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,427 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: intfloat/multilingual-e5-large
3
+ library_name: sentence-transformers
4
+ pipeline_tag: sentence-similarity
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:5612
11
+ - loss:MultipleNegativesRankingLoss
12
+ widget:
13
+ - source_sentence: Où puis je trouver des tuto et supports de formation Couchbase
14
+ ?
15
+ sentences:
16
+ - 'Une XBOX est disponible pour tous, pour jouer en local ou en réseau LBP. Envie
17
+ d''en savoir plus? Sur Toulouse: Une XBOX à disposition sur Toulouse Gabriel Péri
18
+ Sur Enora: Une XBOX à disposition sur le site d'' Enora'
19
+ - L'équipe projet de OP3N a élaboré des pages de contenu dédié par profil utilisateur
20
+ . Besoin d'aide supplémentaire ? N'hésitez pas à prendre rendez-vous avec un
21
+ expert fonctionnel pour une séance de coaching.
22
+ - 'Vous pouvez retrouver l''ensemble de vidéos de tutoriels et de formation concernant
23
+ les outils Moyen DevOps IDE dont Couchbase dans la chaine vidéo "Formation et
24
+ Tuto IDE" . Ces vidéos ne remplacent pas la formation qui reste obligatoire pour
25
+ toute personne (développeur, expert, architecte, PO, ...) qui doit participer
26
+ à un projet utilisant Couchbase. # Référentiel des développeurs'
27
+ - source_sentence: '[SIA 1.2] Comment se connecter à l''url https://apm.admin.sf.intra.laposte.fr/
28
+ depuis le poste SIA 1.2 ? '
29
+ sentences:
30
+ - 'Il est tout à fait possible de se connecter à Dynatrace Managed avec cet URL
31
+ : https://apm.admin.sf.intra.laposte.fr/ depuis un serveur de rebond. Pour rappel,
32
+ il faudra vous connecter à votre poste SIA 1.2 puis vous connecter à un serveur
33
+ de rebond et ensuite accéder à vos outils tel que l''APM par exemple. '
34
+ - L'engagement de délais des équipes participant à la construction de votre projet
35
+ est validé lors du comité d'intrustion (CIE) au moment de la présentation du projet.
36
+ - '​Contactez le Support Utilisateurs. ---------------------------------------------------------------------------------------------------------------------------------------------
37
+ Besoin d’informations supplémentaires ou de nous contacter ? 👉 Consultez le Site
38
+ IziHelp de l’équipe Accompagnement Support Utilisateurs (A.S.U) : Vous souhaitez
39
+ vous former en toute autonomie sur l''outil POST.IT ? 👉 Rejoignez IziTraining
40
+ notre application d’autoformation aux outils ITSM et à leurs processus, ainsi
41
+ qu''à la Mise En Support : 👉 Poursuivez votre formation grâce à IziTraining Practice
42
+ et ses exercices immersifs et ludiques : '
43
+ - source_sentence: '[Imprimante] Comment puis-je obtenir mon code PUK pour utiliser
44
+ les imprimantes Watchdoc ?'
45
+ sentences:
46
+ - 'Pour rechercher l''Utilisateur Principal d''un élément de configuration ou configuration
47
+ item (CI),dans le menu de navigation, sélectionnez "Gestion des configurations"
48
+ puis "Rechercher un CI / Service"et lancez la recherche sur le CI choisi, cliquez
49
+ sur l''onglet "Utilisateur Principal". ----------------------------------------------------------------------------------------------------------------------------------------
50
+ Besoin d’informations supplémentaires ou de nous contacter ? 👉 Consultez le Site
51
+ IziHelp de l’équipe Accompagnement Support Utilisateurs (A.S.U) : Vous souhaitez
52
+ vous former en toute autonomie sur la Gestion des Configurations ? 👉 Rejoignez
53
+ IziTraining notre application d’autoformation aux outils ITSM et à leurs processus,
54
+ ainsi qu''à la Mise En Support : 👉 Poursuivez votre formation grâce à IziTraining
55
+ Practice et ses exercices immersifs et ludiques : '
56
+ - 'Pour tout savoir sur les imprimantes Watchdoc (Guides utilisateur et vidéo de
57
+ présentation), consultez la page d''aide. La page d''information sur la solution
58
+ d''impression sécurisée Watchdoc Informations sur votre compte (laposte.fr) vous
59
+ permet de : Voir vos statistiques d''impression
60
+
61
+ Récupérer votre code PUK PUK = Personal Unlocking Key = clé personnelle de déverrouillage
62
+ Le code PUK permet d''imprimer sur une imprimante sous Watchdoc lorsqu''on a oublié
63
+ son badge ou lorsqu''on veut enrôler son badge sur Watchdoc Note : Le code PUK
64
+ change tous les jours à minuit. #Imprimante #Watchdoc'
65
+ - 'Sur PLUME, dans la rubrique "Base de connaissances" ouvrir la KB suivante : 👉
66
+ KB0012012 - Token RSA : Manuels et guides d''utilisation puis la pièce jointe
67
+ DSIBR-AWSI-IA-RSA-OPT MAIL-Manuel de creation du Code Pin.docx TIPS HORS PROCÉDURE
68
+ : 👉Que dois-je faire quand mon compte OTP mail est expiré ? Vous pouvez joindre
69
+ le 05 56 89 73 33, choix : 3 puis 5 puis 1 ou 2 afin de prolonger temporairement
70
+ le compte.
71
+
72
+ Puis faire une demande PLUME : « Accès exploitation SI (Poste SIA, RSA, PAM, CyberArk,
73
+ TIXEO) » puis sélectionner les options qui concernent votre cas. 👉Comment faire
74
+ si j’ai oublié mon code PIN OTP mail ? Faire une demande PLUME : « Accès exploitation
75
+ SI (Poste SIA, RSA, PAM, CyberArk, TIXEO) » puis sélectionner les options qui
76
+ concernent votre cas. 👉Comment faire si je n’ai pas reçu de mail concernant OTP
77
+ mail ? Vérifier les SPAM, si aucun mail contacter le 05 56 89 73 33, choix :
78
+ 3 puis 5 puis 1 ou 2.'
79
+ - source_sentence: Comment trouver mon nom de machine Sous Windows 7 Phénix ou Windows
80
+ 10 EquinoX ?
81
+ sentences:
82
+ - Vous pouvez des informations concernant les postes de travail VIRTUOS dans le
83
+ SharePoint VirtuOS du portail Support WP
84
+ - 'Nous vous indiquons ci-après comment trouver le nom de machine de votre poste
85
+ de travail qui vous est demandé dans la prise en compte de certaines demandes
86
+ IT Si toutefois vous rencontrez des difficultés, vous pouvez contacter par téléphone
87
+ le Centre d''Appels de la DIRECTION DU SUPPORT ET DE LA MAINTENANCE (DSEM) au
88
+ 16.66 (04.73.74.16.66) de 8h30 à 17h30 Comment trouver votre nom de machine ?
89
+ Sous Windows 7/Phénix, double-cliquer sur l’icône « LanDesk Remote Control » dans
90
+ votre zone de notification (en bas à droite de votre écran). Sur Windows 10/EquinoX,
91
+ faire clic droit sur le bouton Démarrer de Windows, puis sélectionner « Système
92
+ ». Le nom de l’ordinateur apparaît dans la rubrique « Spécifications de l’Appareil
93
+ ». #Papyrus #PowerBI #ANACONDA'
94
+ - 'Les demandes d'' Accès Répertoire Réseau sur mon poste EQUINOX doivent se faire
95
+ exclusivement dans PLUME: Accueil >Catalogue de services > Informatique > Accès
96
+ aux répertoires réseau #DSIBA #REPERTOIRE RESEAU'
97
+ - source_sentence: '[Label SI] Comment savoir si la fiche Label SI est créée ?'
98
+ sentences:
99
+ - 'Se rendre dans le formulaire Iziservices correspondant : Formulaire_Verif_Flux Sur
100
+ la page Changements, vous êtes invités à sélectionner un changement parent en
101
+ phase déploiement. C''est sur ce changement que nous nous appuierons pour créer
102
+ les actes POST-IT associés à nos actions. Renseignez les informations demandées
103
+ dans la section Origine. NOTE : Le code PAI n''est pas exploité dans le cadre
104
+ d''une Vérification de Flux A l''étape 3 vous êtes invités à renseigner les
105
+ champs suivants : Sources
106
+
107
+ Destinations
108
+
109
+ Protocoles et Ports Cliquez sur les boutons "A CONFIGURER" afin de remplir chacune
110
+ des catégories, puis ajoutez le flux en cliquant sur le bouton "AJOUTER" NOTE
111
+ : Les champs Source et Destination peuvent être au format IP, subnet avec masque
112
+ ou range (voir capture ci-dessous) Il est également possible d''ajouter un commentaire
113
+ dans la zone prévue. Une fois tous les flux saisis, vous pouvez passer à l''étape
114
+ suivante en cliquant sur "Continuer", puis "Envoyer" pour soumettre votre demande. Votre
115
+ demande est en cours le temps de procéder aux vérifications. Patientez quelques
116
+ minutes puis rafraichissez le statut de votre demande pour connaitre l''état des
117
+ flux. Vous pouvez également télécharger la matrice de flux complétée au format
118
+ Excel. NOTE : Le bouton "Demander l''ouverture des flux fermés" n''est pas fonctionnel
119
+ en phase Pilote. Un flux peut avoir trois états : OUVERT : Le flux est déjà
120
+ autorisé et fonctionnel sur le SI
121
+
122
+ FERMÉ : Le flux est fermé et doit faire l''objet d''une ouverture de flux pour
123
+ fonctionner
124
+
125
+ A VERIFIER : il y a un erreur dans les informations saisies'
126
+ - 'Si vous voulez réaliser un POC (Proof of Concept) ou POV (Proof of Value), vous
127
+ avez la possibilité de créer de façon simlplifiée un Code Application dédié à
128
+ cet usage temporaire. Pour obtenir plus d''informations sur la procédure de création
129
+ de ce type de Code Application, vous pouvez vous référer à l''article myFAQ de
130
+ l''équipe HOPEX : [Equipe Hopex] Comment modéliser des POC & Projets d’innovation
131
+ (POV) dans HOPEX ?'
132
+ - 'Vous devez vous : connecter directement sur le site Label SI , l''outil de pilotage
133
+ du label SI et
134
+
135
+ consulter les fiches projet à partir de votre code PAI, libellé projet notamment.'
136
+ ---
137
+
138
+ # SentenceTransformer based on intfloat/multilingual-e5-large
139
+
140
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
141
+
142
+ ## Model Details
143
+
144
+ ### Model Description
145
+ - **Model Type:** Sentence Transformer
146
+ - **Base model:** [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) <!-- at revision ab10c1a7f42e74530fe7ae5be82e6d4f11a719eb -->
147
+ - **Maximum Sequence Length:** 512 tokens
148
+ - **Output Dimensionality:** 1024 tokens
149
+ - **Similarity Function:** Cosine Similarity
150
+ <!-- - **Training Dataset:** Unknown -->
151
+ <!-- - **Language:** Unknown -->
152
+ <!-- - **License:** Unknown -->
153
+
154
+ ### Model Sources
155
+
156
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
157
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
158
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
159
+
160
+ ### Full Model Architecture
161
+
162
+ ```
163
+ SentenceTransformer(
164
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
165
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
166
+ )
167
+ ```
168
+
169
+ ## Usage
170
+
171
+ ### Direct Usage (Sentence Transformers)
172
+
173
+ First install the Sentence Transformers library:
174
+
175
+ ```bash
176
+ pip install -U sentence-transformers
177
+ ```
178
+
179
+ Then you can load this model and run inference.
180
+ ```python
181
+ from sentence_transformers import SentenceTransformer
182
+
183
+ # Download from the 🤗 Hub
184
+ model = SentenceTransformer("bourdoiscatie/multilingual-e5-large-approche7-1epoch")
185
+ # Run inference
186
+ sentences = [
187
+ '[Label SI] Comment savoir si la fiche Label SI est créée ?',
188
+ "Vous devez vous : connecter directement sur le site Label SI , l'outil de pilotage du label SI et\nconsulter les fiches projet à partir de votre code PAI, libellé projet notamment.",
189
+ 'Se rendre dans le formulaire Iziservices correspondant : Formulaire_Verif_Flux Sur la page Changements, vous êtes invités à sélectionner un changement parent en phase déploiement. C\'est sur ce changement que nous nous appuierons pour créer les actes POST-IT associés à nos actions. Renseignez les informations demandées dans la section Origine. NOTE : Le code PAI n\'est pas exploité dans le cadre d\'une Vérification de Flux A l\'étape 3 vous êtes invités à renseigner les champs suivants : Sources\nDestinations\nProtocoles et Ports Cliquez sur les boutons "A CONFIGURER" afin de remplir chacune des catégories, puis ajoutez le flux en cliquant sur le bouton "AJOUTER" NOTE : Les champs Source et Destination peuvent être au format IP, subnet avec masque ou range (voir capture ci-dessous) Il est également possible d\'ajouter un commentaire dans la zone prévue. Une fois tous les flux saisis, vous pouvez passer à l\'étape suivante en cliquant sur "Continuer", puis "Envoyer" pour soumettre votre demande. Votre demande est en cours le temps de procéder aux vérifications. Patientez quelques minutes puis rafraichissez le statut de votre demande pour connaitre l\'état des flux. Vous pouvez également télécharger la matrice de flux complétée au format Excel. NOTE : Le bouton "Demander l\'ouverture des flux fermés" n\'est pas fonctionnel en phase Pilote. Un flux peut avoir trois états : OUVERT : Le flux est déjà autorisé et fonctionnel sur le SI\nFERMÉ : Le flux est fermé et doit faire l\'objet d\'une ouverture de flux pour fonctionner\nA VERIFIER : il y a un erreur dans les informations saisies',
190
+ ]
191
+ embeddings = model.encode(sentences)
192
+ print(embeddings.shape)
193
+ # [3, 1024]
194
+
195
+ # Get the similarity scores for the embeddings
196
+ similarities = model.similarity(embeddings, embeddings)
197
+ print(similarities.shape)
198
+ # [3, 3]
199
+ ```
200
+
201
+ <!--
202
+ ### Direct Usage (Transformers)
203
+
204
+ <details><summary>Click to see the direct usage in Transformers</summary>
205
+
206
+ </details>
207
+ -->
208
+
209
+ <!--
210
+ ### Downstream Usage (Sentence Transformers)
211
+
212
+ You can finetune this model on your own dataset.
213
+
214
+ <details><summary>Click to expand</summary>
215
+
216
+ </details>
217
+ -->
218
+
219
+ <!--
220
+ ### Out-of-Scope Use
221
+
222
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
223
+ -->
224
+
225
+ <!--
226
+ ## Bias, Risks and Limitations
227
+
228
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
229
+ -->
230
+
231
+ <!--
232
+ ### Recommendations
233
+
234
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
235
+ -->
236
+
237
+ ## Training Details
238
+
239
+ ### Training Hyperparameters
240
+ #### Non-Default Hyperparameters
241
+
242
+ - `eval_strategy`: epoch
243
+ - `learning_rate`: 1e-05
244
+ - `weight_decay`: 0.01
245
+ - `num_train_epochs`: 1
246
+ - `batch_sampler`: no_duplicates
247
+
248
+ #### All Hyperparameters
249
+ <details><summary>Click to expand</summary>
250
+
251
+ - `overwrite_output_dir`: False
252
+ - `do_predict`: False
253
+ - `eval_strategy`: epoch
254
+ - `prediction_loss_only`: True
255
+ - `per_device_train_batch_size`: 8
256
+ - `per_device_eval_batch_size`: 8
257
+ - `per_gpu_train_batch_size`: None
258
+ - `per_gpu_eval_batch_size`: None
259
+ - `gradient_accumulation_steps`: 1
260
+ - `eval_accumulation_steps`: None
261
+ - `torch_empty_cache_steps`: None
262
+ - `learning_rate`: 1e-05
263
+ - `weight_decay`: 0.01
264
+ - `adam_beta1`: 0.9
265
+ - `adam_beta2`: 0.999
266
+ - `adam_epsilon`: 1e-08
267
+ - `max_grad_norm`: 1.0
268
+ - `num_train_epochs`: 1
269
+ - `max_steps`: -1
270
+ - `lr_scheduler_type`: linear
271
+ - `lr_scheduler_kwargs`: {}
272
+ - `warmup_ratio`: 0.0
273
+ - `warmup_steps`: 0
274
+ - `log_level`: passive
275
+ - `log_level_replica`: warning
276
+ - `log_on_each_node`: True
277
+ - `logging_nan_inf_filter`: True
278
+ - `save_safetensors`: True
279
+ - `save_on_each_node`: False
280
+ - `save_only_model`: False
281
+ - `restore_callback_states_from_checkpoint`: False
282
+ - `no_cuda`: False
283
+ - `use_cpu`: False
284
+ - `use_mps_device`: False
285
+ - `seed`: 42
286
+ - `data_seed`: None
287
+ - `jit_mode_eval`: False
288
+ - `use_ipex`: False
289
+ - `bf16`: False
290
+ - `fp16`: False
291
+ - `fp16_opt_level`: O1
292
+ - `half_precision_backend`: auto
293
+ - `bf16_full_eval`: False
294
+ - `fp16_full_eval`: False
295
+ - `tf32`: None
296
+ - `local_rank`: 0
297
+ - `ddp_backend`: None
298
+ - `tpu_num_cores`: None
299
+ - `tpu_metrics_debug`: False
300
+ - `debug`: []
301
+ - `dataloader_drop_last`: False
302
+ - `dataloader_num_workers`: 0
303
+ - `dataloader_prefetch_factor`: None
304
+ - `past_index`: -1
305
+ - `disable_tqdm`: False
306
+ - `remove_unused_columns`: True
307
+ - `label_names`: None
308
+ - `load_best_model_at_end`: False
309
+ - `ignore_data_skip`: False
310
+ - `fsdp`: []
311
+ - `fsdp_min_num_params`: 0
312
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
313
+ - `fsdp_transformer_layer_cls_to_wrap`: None
314
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
315
+ - `deepspeed`: None
316
+ - `label_smoothing_factor`: 0.0
317
+ - `optim`: adamw_torch
318
+ - `optim_args`: None
319
+ - `adafactor`: False
320
+ - `group_by_length`: False
321
+ - `length_column_name`: length
322
+ - `ddp_find_unused_parameters`: None
323
+ - `ddp_bucket_cap_mb`: None
324
+ - `ddp_broadcast_buffers`: False
325
+ - `dataloader_pin_memory`: True
326
+ - `dataloader_persistent_workers`: False
327
+ - `skip_memory_metrics`: True
328
+ - `use_legacy_prediction_loop`: False
329
+ - `push_to_hub`: False
330
+ - `resume_from_checkpoint`: None
331
+ - `hub_model_id`: None
332
+ - `hub_strategy`: every_save
333
+ - `hub_private_repo`: False
334
+ - `hub_always_push`: False
335
+ - `gradient_checkpointing`: False
336
+ - `gradient_checkpointing_kwargs`: None
337
+ - `include_inputs_for_metrics`: False
338
+ - `eval_do_concat_batches`: True
339
+ - `fp16_backend`: auto
340
+ - `push_to_hub_model_id`: None
341
+ - `push_to_hub_organization`: None
342
+ - `mp_parameters`:
343
+ - `auto_find_batch_size`: False
344
+ - `full_determinism`: False
345
+ - `torchdynamo`: None
346
+ - `ray_scope`: last
347
+ - `ddp_timeout`: 1800
348
+ - `torch_compile`: False
349
+ - `torch_compile_backend`: None
350
+ - `torch_compile_mode`: None
351
+ - `dispatch_batches`: None
352
+ - `split_batches`: None
353
+ - `include_tokens_per_second`: False
354
+ - `include_num_input_tokens_seen`: False
355
+ - `neftune_noise_alpha`: None
356
+ - `optim_target_modules`: None
357
+ - `batch_eval_metrics`: False
358
+ - `eval_on_start`: False
359
+ - `use_liger_kernel`: False
360
+ - `eval_use_gather_object`: False
361
+ - `batch_sampler`: no_duplicates
362
+ - `multi_dataset_batch_sampler`: proportional
363
+
364
+ </details>
365
+
366
+ ### Training Logs
367
+ | Epoch | Step | Training Loss | triplet loss |
368
+ |:------:|:----:|:-------------:|:------------:|
369
+ | 0.7267 | 500 | 0.0502 | - |
370
+ | 1.0 | 688 | - | 0.0047 |
371
+
372
+
373
+ ### Framework Versions
374
+ - Python: 3.12.6
375
+ - Sentence Transformers: 3.1.1
376
+ - Transformers: 4.45.2
377
+ - PyTorch: 2.4.0+cu121
378
+ - Accelerate: 0.29.3
379
+ - Datasets: 3.0.2
380
+ - Tokenizers: 0.20.1
381
+
382
+ ## Citation
383
+
384
+ ### BibTeX
385
+
386
+ #### Sentence Transformers
387
+ ```bibtex
388
+ @inproceedings{reimers-2019-sentence-bert,
389
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
390
+ author = "Reimers, Nils and Gurevych, Iryna",
391
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
392
+ month = "11",
393
+ year = "2019",
394
+ publisher = "Association for Computational Linguistics",
395
+ url = "https://arxiv.org/abs/1908.10084",
396
+ }
397
+ ```
398
+
399
+ #### MultipleNegativesRankingLoss
400
+ ```bibtex
401
+ @misc{henderson2017efficient,
402
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
403
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
404
+ year={2017},
405
+ eprint={1705.00652},
406
+ archivePrefix={arXiv},
407
+ primaryClass={cs.CL}
408
+ }
409
+ ```
410
+
411
+ <!--
412
+ ## Glossary
413
+
414
+ *Clearly define terms in order to be accessible across audiences.*
415
+ -->
416
+
417
+ <!--
418
+ ## Model Card Authors
419
+
420
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
421
+ -->
422
+
423
+ <!--
424
+ ## Model Card Contact
425
+
426
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
427
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "intfloat/multilingual-e5-large",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.45.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.1",
4
+ "transformers": "4.45.2",
5
+ "pytorch": "2.4.0+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:32b8ab8652c3c49ca6f22360e4eb721b0c564e7126db86b332be126aaeff6e94
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "__main__.CustomTransformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 512,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "XLMRobertaTokenizer",
53
+ "unk_token": "<unk>"
54
+ }