bourdoiscatie
commited on
Commit
•
677993f
1
Parent(s):
1b8eb89
Training complete
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +427 -0
- config.json +28 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- sentencepiece.bpe.model +3 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +54 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,427 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
base_model: intfloat/multilingual-e5-large
|
3 |
+
library_name: sentence-transformers
|
4 |
+
pipeline_tag: sentence-similarity
|
5 |
+
tags:
|
6 |
+
- sentence-transformers
|
7 |
+
- sentence-similarity
|
8 |
+
- feature-extraction
|
9 |
+
- generated_from_trainer
|
10 |
+
- dataset_size:5612
|
11 |
+
- loss:MultipleNegativesRankingLoss
|
12 |
+
widget:
|
13 |
+
- source_sentence: Où puis je trouver des tuto et supports de formation Couchbase
|
14 |
+
?
|
15 |
+
sentences:
|
16 |
+
- 'Une XBOX est disponible pour tous, pour jouer en local ou en réseau LBP. Envie
|
17 |
+
d''en savoir plus? Sur Toulouse: Une XBOX à disposition sur Toulouse Gabriel Péri
|
18 |
+
Sur Enora: Une XBOX à disposition sur le site d'' Enora'
|
19 |
+
- L'équipe projet de OP3N a élaboré des pages de contenu dédié par profil utilisateur
|
20 |
+
. Besoin d'aide supplémentaire ? N'hésitez pas à prendre rendez-vous avec un
|
21 |
+
expert fonctionnel pour une séance de coaching.
|
22 |
+
- 'Vous pouvez retrouver l''ensemble de vidéos de tutoriels et de formation concernant
|
23 |
+
les outils Moyen DevOps IDE dont Couchbase dans la chaine vidéo "Formation et
|
24 |
+
Tuto IDE" . Ces vidéos ne remplacent pas la formation qui reste obligatoire pour
|
25 |
+
toute personne (développeur, expert, architecte, PO, ...) qui doit participer
|
26 |
+
à un projet utilisant Couchbase. # Référentiel des développeurs'
|
27 |
+
- source_sentence: '[SIA 1.2] Comment se connecter à l''url https://apm.admin.sf.intra.laposte.fr/
|
28 |
+
depuis le poste SIA 1.2 ? '
|
29 |
+
sentences:
|
30 |
+
- 'Il est tout à fait possible de se connecter à Dynatrace Managed avec cet URL
|
31 |
+
: https://apm.admin.sf.intra.laposte.fr/ depuis un serveur de rebond. Pour rappel,
|
32 |
+
il faudra vous connecter à votre poste SIA 1.2 puis vous connecter à un serveur
|
33 |
+
de rebond et ensuite accéder à vos outils tel que l''APM par exemple. '
|
34 |
+
- L'engagement de délais des équipes participant à la construction de votre projet
|
35 |
+
est validé lors du comité d'intrustion (CIE) au moment de la présentation du projet.
|
36 |
+
- 'Contactez le Support Utilisateurs. ---------------------------------------------------------------------------------------------------------------------------------------------
|
37 |
+
Besoin d’informations supplémentaires ou de nous contacter ? 👉 Consultez le Site
|
38 |
+
IziHelp de l’équipe Accompagnement Support Utilisateurs (A.S.U) : Vous souhaitez
|
39 |
+
vous former en toute autonomie sur l''outil POST.IT ? 👉 Rejoignez IziTraining
|
40 |
+
notre application d’autoformation aux outils ITSM et à leurs processus, ainsi
|
41 |
+
qu''à la Mise En Support : 👉 Poursuivez votre formation grâce à IziTraining Practice
|
42 |
+
et ses exercices immersifs et ludiques : '
|
43 |
+
- source_sentence: '[Imprimante] Comment puis-je obtenir mon code PUK pour utiliser
|
44 |
+
les imprimantes Watchdoc ?'
|
45 |
+
sentences:
|
46 |
+
- 'Pour rechercher l''Utilisateur Principal d''un élément de configuration ou configuration
|
47 |
+
item (CI),dans le menu de navigation, sélectionnez "Gestion des configurations"
|
48 |
+
puis "Rechercher un CI / Service"et lancez la recherche sur le CI choisi, cliquez
|
49 |
+
sur l''onglet "Utilisateur Principal". ----------------------------------------------------------------------------------------------------------------------------------------
|
50 |
+
Besoin d’informations supplémentaires ou de nous contacter ? 👉 Consultez le Site
|
51 |
+
IziHelp de l’équipe Accompagnement Support Utilisateurs (A.S.U) : Vous souhaitez
|
52 |
+
vous former en toute autonomie sur la Gestion des Configurations ? 👉 Rejoignez
|
53 |
+
IziTraining notre application d’autoformation aux outils ITSM et à leurs processus,
|
54 |
+
ainsi qu''à la Mise En Support : 👉 Poursuivez votre formation grâce à IziTraining
|
55 |
+
Practice et ses exercices immersifs et ludiques : '
|
56 |
+
- 'Pour tout savoir sur les imprimantes Watchdoc (Guides utilisateur et vidéo de
|
57 |
+
présentation), consultez la page d''aide. La page d''information sur la solution
|
58 |
+
d''impression sécurisée Watchdoc Informations sur votre compte (laposte.fr) vous
|
59 |
+
permet de : Voir vos statistiques d''impression
|
60 |
+
|
61 |
+
Récupérer votre code PUK PUK = Personal Unlocking Key = clé personnelle de déverrouillage
|
62 |
+
Le code PUK permet d''imprimer sur une imprimante sous Watchdoc lorsqu''on a oublié
|
63 |
+
son badge ou lorsqu''on veut enrôler son badge sur Watchdoc Note : Le code PUK
|
64 |
+
change tous les jours à minuit. #Imprimante #Watchdoc'
|
65 |
+
- 'Sur PLUME, dans la rubrique "Base de connaissances" ouvrir la KB suivante : 👉
|
66 |
+
KB0012012 - Token RSA : Manuels et guides d''utilisation puis la pièce jointe
|
67 |
+
DSIBR-AWSI-IA-RSA-OPT MAIL-Manuel de creation du Code Pin.docx TIPS HORS PROCÉDURE
|
68 |
+
: 👉Que dois-je faire quand mon compte OTP mail est expiré ? Vous pouvez joindre
|
69 |
+
le 05 56 89 73 33, choix : 3 puis 5 puis 1 ou 2 afin de prolonger temporairement
|
70 |
+
le compte.
|
71 |
+
|
72 |
+
Puis faire une demande PLUME : « Accès exploitation SI (Poste SIA, RSA, PAM, CyberArk,
|
73 |
+
TIXEO) » puis sélectionner les options qui concernent votre cas. 👉Comment faire
|
74 |
+
si j’ai oublié mon code PIN OTP mail ? Faire une demande PLUME : « Accès exploitation
|
75 |
+
SI (Poste SIA, RSA, PAM, CyberArk, TIXEO) » puis sélectionner les options qui
|
76 |
+
concernent votre cas. 👉Comment faire si je n’ai pas reçu de mail concernant OTP
|
77 |
+
mail ? Vérifier les SPAM, si aucun mail contacter le 05 56 89 73 33, choix :
|
78 |
+
3 puis 5 puis 1 ou 2.'
|
79 |
+
- source_sentence: Comment trouver mon nom de machine Sous Windows 7 Phénix ou Windows
|
80 |
+
10 EquinoX ?
|
81 |
+
sentences:
|
82 |
+
- Vous pouvez des informations concernant les postes de travail VIRTUOS dans le
|
83 |
+
SharePoint VirtuOS du portail Support WP
|
84 |
+
- 'Nous vous indiquons ci-après comment trouver le nom de machine de votre poste
|
85 |
+
de travail qui vous est demandé dans la prise en compte de certaines demandes
|
86 |
+
IT Si toutefois vous rencontrez des difficultés, vous pouvez contacter par téléphone
|
87 |
+
le Centre d''Appels de la DIRECTION DU SUPPORT ET DE LA MAINTENANCE (DSEM) au
|
88 |
+
16.66 (04.73.74.16.66) de 8h30 à 17h30 Comment trouver votre nom de machine ?
|
89 |
+
Sous Windows 7/Phénix, double-cliquer sur l’icône « LanDesk Remote Control » dans
|
90 |
+
votre zone de notification (en bas à droite de votre écran). Sur Windows 10/EquinoX,
|
91 |
+
faire clic droit sur le bouton Démarrer de Windows, puis sélectionner « Système
|
92 |
+
». Le nom de l’ordinateur apparaît dans la rubrique « Spécifications de l’Appareil
|
93 |
+
». #Papyrus #PowerBI #ANACONDA'
|
94 |
+
- 'Les demandes d'' Accès Répertoire Réseau sur mon poste EQUINOX doivent se faire
|
95 |
+
exclusivement dans PLUME: Accueil >Catalogue de services > Informatique > Accès
|
96 |
+
aux répertoires réseau #DSIBA #REPERTOIRE RESEAU'
|
97 |
+
- source_sentence: '[Label SI] Comment savoir si la fiche Label SI est créée ?'
|
98 |
+
sentences:
|
99 |
+
- 'Se rendre dans le formulaire Iziservices correspondant : Formulaire_Verif_Flux Sur
|
100 |
+
la page Changements, vous êtes invités à sélectionner un changement parent en
|
101 |
+
phase déploiement. C''est sur ce changement que nous nous appuierons pour créer
|
102 |
+
les actes POST-IT associés à nos actions. Renseignez les informations demandées
|
103 |
+
dans la section Origine. NOTE : Le code PAI n''est pas exploité dans le cadre
|
104 |
+
d''une Vérification de Flux A l''étape 3 vous êtes invités à renseigner les
|
105 |
+
champs suivants : Sources
|
106 |
+
|
107 |
+
Destinations
|
108 |
+
|
109 |
+
Protocoles et Ports Cliquez sur les boutons "A CONFIGURER" afin de remplir chacune
|
110 |
+
des catégories, puis ajoutez le flux en cliquant sur le bouton "AJOUTER" NOTE
|
111 |
+
: Les champs Source et Destination peuvent être au format IP, subnet avec masque
|
112 |
+
ou range (voir capture ci-dessous) Il est également possible d''ajouter un commentaire
|
113 |
+
dans la zone prévue. Une fois tous les flux saisis, vous pouvez passer à l''étape
|
114 |
+
suivante en cliquant sur "Continuer", puis "Envoyer" pour soumettre votre demande. Votre
|
115 |
+
demande est en cours le temps de procéder aux vérifications. Patientez quelques
|
116 |
+
minutes puis rafraichissez le statut de votre demande pour connaitre l''état des
|
117 |
+
flux. Vous pouvez également télécharger la matrice de flux complétée au format
|
118 |
+
Excel. NOTE : Le bouton "Demander l''ouverture des flux fermés" n''est pas fonctionnel
|
119 |
+
en phase Pilote. Un flux peut avoir trois états : OUVERT : Le flux est déjà
|
120 |
+
autorisé et fonctionnel sur le SI
|
121 |
+
|
122 |
+
FERMÉ : Le flux est fermé et doit faire l''objet d''une ouverture de flux pour
|
123 |
+
fonctionner
|
124 |
+
|
125 |
+
A VERIFIER : il y a un erreur dans les informations saisies'
|
126 |
+
- 'Si vous voulez réaliser un POC (Proof of Concept) ou POV (Proof of Value), vous
|
127 |
+
avez la possibilité de créer de façon simlplifiée un Code Application dédié à
|
128 |
+
cet usage temporaire. Pour obtenir plus d''informations sur la procédure de création
|
129 |
+
de ce type de Code Application, vous pouvez vous référer à l''article myFAQ de
|
130 |
+
l''équipe HOPEX : [Equipe Hopex] Comment modéliser des POC & Projets d’innovation
|
131 |
+
(POV) dans HOPEX ?'
|
132 |
+
- 'Vous devez vous : connecter directement sur le site Label SI , l''outil de pilotage
|
133 |
+
du label SI et
|
134 |
+
|
135 |
+
consulter les fiches projet à partir de votre code PAI, libellé projet notamment.'
|
136 |
+
---
|
137 |
+
|
138 |
+
# SentenceTransformer based on intfloat/multilingual-e5-large
|
139 |
+
|
140 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
141 |
+
|
142 |
+
## Model Details
|
143 |
+
|
144 |
+
### Model Description
|
145 |
+
- **Model Type:** Sentence Transformer
|
146 |
+
- **Base model:** [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) <!-- at revision ab10c1a7f42e74530fe7ae5be82e6d4f11a719eb -->
|
147 |
+
- **Maximum Sequence Length:** 512 tokens
|
148 |
+
- **Output Dimensionality:** 1024 tokens
|
149 |
+
- **Similarity Function:** Cosine Similarity
|
150 |
+
<!-- - **Training Dataset:** Unknown -->
|
151 |
+
<!-- - **Language:** Unknown -->
|
152 |
+
<!-- - **License:** Unknown -->
|
153 |
+
|
154 |
+
### Model Sources
|
155 |
+
|
156 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
157 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
158 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
159 |
+
|
160 |
+
### Full Model Architecture
|
161 |
+
|
162 |
+
```
|
163 |
+
SentenceTransformer(
|
164 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
165 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
166 |
+
)
|
167 |
+
```
|
168 |
+
|
169 |
+
## Usage
|
170 |
+
|
171 |
+
### Direct Usage (Sentence Transformers)
|
172 |
+
|
173 |
+
First install the Sentence Transformers library:
|
174 |
+
|
175 |
+
```bash
|
176 |
+
pip install -U sentence-transformers
|
177 |
+
```
|
178 |
+
|
179 |
+
Then you can load this model and run inference.
|
180 |
+
```python
|
181 |
+
from sentence_transformers import SentenceTransformer
|
182 |
+
|
183 |
+
# Download from the 🤗 Hub
|
184 |
+
model = SentenceTransformer("bourdoiscatie/multilingual-e5-large-approche7-1epoch")
|
185 |
+
# Run inference
|
186 |
+
sentences = [
|
187 |
+
'[Label SI] Comment savoir si la fiche Label SI est créée ?',
|
188 |
+
"Vous devez vous : connecter directement sur le site Label SI , l'outil de pilotage du label SI et\nconsulter les fiches projet à partir de votre code PAI, libellé projet notamment.",
|
189 |
+
'Se rendre dans le formulaire Iziservices correspondant : Formulaire_Verif_Flux Sur la page Changements, vous êtes invités à sélectionner un changement parent en phase déploiement. C\'est sur ce changement que nous nous appuierons pour créer les actes POST-IT associés à nos actions. Renseignez les informations demandées dans la section Origine. NOTE : Le code PAI n\'est pas exploité dans le cadre d\'une Vérification de Flux A l\'étape 3 vous êtes invités à renseigner les champs suivants : Sources\nDestinations\nProtocoles et Ports Cliquez sur les boutons "A CONFIGURER" afin de remplir chacune des catégories, puis ajoutez le flux en cliquant sur le bouton "AJOUTER" NOTE : Les champs Source et Destination peuvent être au format IP, subnet avec masque ou range (voir capture ci-dessous) Il est également possible d\'ajouter un commentaire dans la zone prévue. Une fois tous les flux saisis, vous pouvez passer à l\'étape suivante en cliquant sur "Continuer", puis "Envoyer" pour soumettre votre demande. Votre demande est en cours le temps de procéder aux vérifications. Patientez quelques minutes puis rafraichissez le statut de votre demande pour connaitre l\'état des flux. Vous pouvez également télécharger la matrice de flux complétée au format Excel. NOTE : Le bouton "Demander l\'ouverture des flux fermés" n\'est pas fonctionnel en phase Pilote. Un flux peut avoir trois états : OUVERT : Le flux est déjà autorisé et fonctionnel sur le SI\nFERMÉ : Le flux est fermé et doit faire l\'objet d\'une ouverture de flux pour fonctionner\nA VERIFIER : il y a un erreur dans les informations saisies',
|
190 |
+
]
|
191 |
+
embeddings = model.encode(sentences)
|
192 |
+
print(embeddings.shape)
|
193 |
+
# [3, 1024]
|
194 |
+
|
195 |
+
# Get the similarity scores for the embeddings
|
196 |
+
similarities = model.similarity(embeddings, embeddings)
|
197 |
+
print(similarities.shape)
|
198 |
+
# [3, 3]
|
199 |
+
```
|
200 |
+
|
201 |
+
<!--
|
202 |
+
### Direct Usage (Transformers)
|
203 |
+
|
204 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
205 |
+
|
206 |
+
</details>
|
207 |
+
-->
|
208 |
+
|
209 |
+
<!--
|
210 |
+
### Downstream Usage (Sentence Transformers)
|
211 |
+
|
212 |
+
You can finetune this model on your own dataset.
|
213 |
+
|
214 |
+
<details><summary>Click to expand</summary>
|
215 |
+
|
216 |
+
</details>
|
217 |
+
-->
|
218 |
+
|
219 |
+
<!--
|
220 |
+
### Out-of-Scope Use
|
221 |
+
|
222 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
223 |
+
-->
|
224 |
+
|
225 |
+
<!--
|
226 |
+
## Bias, Risks and Limitations
|
227 |
+
|
228 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
229 |
+
-->
|
230 |
+
|
231 |
+
<!--
|
232 |
+
### Recommendations
|
233 |
+
|
234 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
235 |
+
-->
|
236 |
+
|
237 |
+
## Training Details
|
238 |
+
|
239 |
+
### Training Hyperparameters
|
240 |
+
#### Non-Default Hyperparameters
|
241 |
+
|
242 |
+
- `eval_strategy`: epoch
|
243 |
+
- `learning_rate`: 1e-05
|
244 |
+
- `weight_decay`: 0.01
|
245 |
+
- `num_train_epochs`: 1
|
246 |
+
- `batch_sampler`: no_duplicates
|
247 |
+
|
248 |
+
#### All Hyperparameters
|
249 |
+
<details><summary>Click to expand</summary>
|
250 |
+
|
251 |
+
- `overwrite_output_dir`: False
|
252 |
+
- `do_predict`: False
|
253 |
+
- `eval_strategy`: epoch
|
254 |
+
- `prediction_loss_only`: True
|
255 |
+
- `per_device_train_batch_size`: 8
|
256 |
+
- `per_device_eval_batch_size`: 8
|
257 |
+
- `per_gpu_train_batch_size`: None
|
258 |
+
- `per_gpu_eval_batch_size`: None
|
259 |
+
- `gradient_accumulation_steps`: 1
|
260 |
+
- `eval_accumulation_steps`: None
|
261 |
+
- `torch_empty_cache_steps`: None
|
262 |
+
- `learning_rate`: 1e-05
|
263 |
+
- `weight_decay`: 0.01
|
264 |
+
- `adam_beta1`: 0.9
|
265 |
+
- `adam_beta2`: 0.999
|
266 |
+
- `adam_epsilon`: 1e-08
|
267 |
+
- `max_grad_norm`: 1.0
|
268 |
+
- `num_train_epochs`: 1
|
269 |
+
- `max_steps`: -1
|
270 |
+
- `lr_scheduler_type`: linear
|
271 |
+
- `lr_scheduler_kwargs`: {}
|
272 |
+
- `warmup_ratio`: 0.0
|
273 |
+
- `warmup_steps`: 0
|
274 |
+
- `log_level`: passive
|
275 |
+
- `log_level_replica`: warning
|
276 |
+
- `log_on_each_node`: True
|
277 |
+
- `logging_nan_inf_filter`: True
|
278 |
+
- `save_safetensors`: True
|
279 |
+
- `save_on_each_node`: False
|
280 |
+
- `save_only_model`: False
|
281 |
+
- `restore_callback_states_from_checkpoint`: False
|
282 |
+
- `no_cuda`: False
|
283 |
+
- `use_cpu`: False
|
284 |
+
- `use_mps_device`: False
|
285 |
+
- `seed`: 42
|
286 |
+
- `data_seed`: None
|
287 |
+
- `jit_mode_eval`: False
|
288 |
+
- `use_ipex`: False
|
289 |
+
- `bf16`: False
|
290 |
+
- `fp16`: False
|
291 |
+
- `fp16_opt_level`: O1
|
292 |
+
- `half_precision_backend`: auto
|
293 |
+
- `bf16_full_eval`: False
|
294 |
+
- `fp16_full_eval`: False
|
295 |
+
- `tf32`: None
|
296 |
+
- `local_rank`: 0
|
297 |
+
- `ddp_backend`: None
|
298 |
+
- `tpu_num_cores`: None
|
299 |
+
- `tpu_metrics_debug`: False
|
300 |
+
- `debug`: []
|
301 |
+
- `dataloader_drop_last`: False
|
302 |
+
- `dataloader_num_workers`: 0
|
303 |
+
- `dataloader_prefetch_factor`: None
|
304 |
+
- `past_index`: -1
|
305 |
+
- `disable_tqdm`: False
|
306 |
+
- `remove_unused_columns`: True
|
307 |
+
- `label_names`: None
|
308 |
+
- `load_best_model_at_end`: False
|
309 |
+
- `ignore_data_skip`: False
|
310 |
+
- `fsdp`: []
|
311 |
+
- `fsdp_min_num_params`: 0
|
312 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
313 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
314 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
315 |
+
- `deepspeed`: None
|
316 |
+
- `label_smoothing_factor`: 0.0
|
317 |
+
- `optim`: adamw_torch
|
318 |
+
- `optim_args`: None
|
319 |
+
- `adafactor`: False
|
320 |
+
- `group_by_length`: False
|
321 |
+
- `length_column_name`: length
|
322 |
+
- `ddp_find_unused_parameters`: None
|
323 |
+
- `ddp_bucket_cap_mb`: None
|
324 |
+
- `ddp_broadcast_buffers`: False
|
325 |
+
- `dataloader_pin_memory`: True
|
326 |
+
- `dataloader_persistent_workers`: False
|
327 |
+
- `skip_memory_metrics`: True
|
328 |
+
- `use_legacy_prediction_loop`: False
|
329 |
+
- `push_to_hub`: False
|
330 |
+
- `resume_from_checkpoint`: None
|
331 |
+
- `hub_model_id`: None
|
332 |
+
- `hub_strategy`: every_save
|
333 |
+
- `hub_private_repo`: False
|
334 |
+
- `hub_always_push`: False
|
335 |
+
- `gradient_checkpointing`: False
|
336 |
+
- `gradient_checkpointing_kwargs`: None
|
337 |
+
- `include_inputs_for_metrics`: False
|
338 |
+
- `eval_do_concat_batches`: True
|
339 |
+
- `fp16_backend`: auto
|
340 |
+
- `push_to_hub_model_id`: None
|
341 |
+
- `push_to_hub_organization`: None
|
342 |
+
- `mp_parameters`:
|
343 |
+
- `auto_find_batch_size`: False
|
344 |
+
- `full_determinism`: False
|
345 |
+
- `torchdynamo`: None
|
346 |
+
- `ray_scope`: last
|
347 |
+
- `ddp_timeout`: 1800
|
348 |
+
- `torch_compile`: False
|
349 |
+
- `torch_compile_backend`: None
|
350 |
+
- `torch_compile_mode`: None
|
351 |
+
- `dispatch_batches`: None
|
352 |
+
- `split_batches`: None
|
353 |
+
- `include_tokens_per_second`: False
|
354 |
+
- `include_num_input_tokens_seen`: False
|
355 |
+
- `neftune_noise_alpha`: None
|
356 |
+
- `optim_target_modules`: None
|
357 |
+
- `batch_eval_metrics`: False
|
358 |
+
- `eval_on_start`: False
|
359 |
+
- `use_liger_kernel`: False
|
360 |
+
- `eval_use_gather_object`: False
|
361 |
+
- `batch_sampler`: no_duplicates
|
362 |
+
- `multi_dataset_batch_sampler`: proportional
|
363 |
+
|
364 |
+
</details>
|
365 |
+
|
366 |
+
### Training Logs
|
367 |
+
| Epoch | Step | Training Loss | triplet loss |
|
368 |
+
|:------:|:----:|:-------------:|:------------:|
|
369 |
+
| 0.7267 | 500 | 0.0502 | - |
|
370 |
+
| 1.0 | 688 | - | 0.0047 |
|
371 |
+
|
372 |
+
|
373 |
+
### Framework Versions
|
374 |
+
- Python: 3.12.6
|
375 |
+
- Sentence Transformers: 3.1.1
|
376 |
+
- Transformers: 4.45.2
|
377 |
+
- PyTorch: 2.4.0+cu121
|
378 |
+
- Accelerate: 0.29.3
|
379 |
+
- Datasets: 3.0.2
|
380 |
+
- Tokenizers: 0.20.1
|
381 |
+
|
382 |
+
## Citation
|
383 |
+
|
384 |
+
### BibTeX
|
385 |
+
|
386 |
+
#### Sentence Transformers
|
387 |
+
```bibtex
|
388 |
+
@inproceedings{reimers-2019-sentence-bert,
|
389 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
390 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
391 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
392 |
+
month = "11",
|
393 |
+
year = "2019",
|
394 |
+
publisher = "Association for Computational Linguistics",
|
395 |
+
url = "https://arxiv.org/abs/1908.10084",
|
396 |
+
}
|
397 |
+
```
|
398 |
+
|
399 |
+
#### MultipleNegativesRankingLoss
|
400 |
+
```bibtex
|
401 |
+
@misc{henderson2017efficient,
|
402 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
403 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
404 |
+
year={2017},
|
405 |
+
eprint={1705.00652},
|
406 |
+
archivePrefix={arXiv},
|
407 |
+
primaryClass={cs.CL}
|
408 |
+
}
|
409 |
+
```
|
410 |
+
|
411 |
+
<!--
|
412 |
+
## Glossary
|
413 |
+
|
414 |
+
*Clearly define terms in order to be accessible across audiences.*
|
415 |
+
-->
|
416 |
+
|
417 |
+
<!--
|
418 |
+
## Model Card Authors
|
419 |
+
|
420 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
421 |
+
-->
|
422 |
+
|
423 |
+
<!--
|
424 |
+
## Model Card Contact
|
425 |
+
|
426 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
427 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "intfloat/multilingual-e5-large",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 1024,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 4096,
|
15 |
+
"layer_norm_eps": 1e-05,
|
16 |
+
"max_position_embeddings": 514,
|
17 |
+
"model_type": "xlm-roberta",
|
18 |
+
"num_attention_heads": 16,
|
19 |
+
"num_hidden_layers": 24,
|
20 |
+
"output_past": true,
|
21 |
+
"pad_token_id": 1,
|
22 |
+
"position_embedding_type": "absolute",
|
23 |
+
"torch_dtype": "float32",
|
24 |
+
"transformers_version": "4.45.2",
|
25 |
+
"type_vocab_size": 1,
|
26 |
+
"use_cache": true,
|
27 |
+
"vocab_size": 250002
|
28 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.1.1",
|
4 |
+
"transformers": "4.45.2",
|
5 |
+
"pytorch": "2.4.0+cu121"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": null
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:32b8ab8652c3c49ca6f22360e4eb721b0c564e7126db86b332be126aaeff6e94
|
3 |
+
size 2239607176
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "__main__.CustomTransformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
sentencepiece.bpe.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
|
3 |
+
size 5069051
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
|
3 |
+
size 17082987
|
tokenizer_config.json
ADDED
@@ -0,0 +1,54 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"mask_token": "<mask>",
|
49 |
+
"model_max_length": 512,
|
50 |
+
"pad_token": "<pad>",
|
51 |
+
"sep_token": "</s>",
|
52 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
53 |
+
"unk_token": "<unk>"
|
54 |
+
}
|