Librarian Bot: Add base_model information to model
Browse filesThis pull request aims to enrich the metadata of your model by adding [`google/flan-t5-large`](https://huggingface.co/google/flan-t5-large) as a `base_model` field, situated in the `YAML` block of your model's `README.md`.
How did we find this information? We performed a regular expression match on your `README.md` file to determine the connection.
**Why add this?** Enhancing your model's metadata in this way:
- **Boosts Discoverability** - It becomes straightforward to trace the relationships between various models on the Hugging Face Hub.
- **Highlights Impact** - It showcases the contributions and influences different models have within the community.
For a hands-on example of how such metadata can play a pivotal role in mapping model connections, take a look at [librarian-bots/base_model_explorer](https://huggingface.co/spaces/librarian-bots/base_model_explorer).
This PR comes courtesy of [Librarian Bot](https://huggingface.co/librarian-bot). If you have any feedback, queries, or need assistance, please don't hesitate to reach out to [@davanstrien](https://huggingface.co/davanstrien). Your input is invaluable to us!
@@ -1,60 +1,52 @@
|
|
1 |
---
|
2 |
-
license: apache-2.0
|
3 |
language:
|
4 |
-
|
|
|
5 |
tags:
|
6 |
-
|
7 |
-
|
8 |
-
|
9 |
-
|
10 |
datasets:
|
11 |
-
|
12 |
metrics:
|
13 |
-
|
14 |
-
model-index:
|
15 |
-
- name: flan-t5-large-lfqa-fr-v3
|
16 |
-
results: []
|
17 |
widget:
|
18 |
-
|
19 |
-
|
20 |
-
|
21 |
-
|
22 |
-
|
23 |
-
|
24 |
-
|
25 |
-
|
26 |
-
|
27 |
-
|
28 |
-
|
29 |
-
|
30 |
-
|
31 |
-
|
32 |
-
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
-
|
38 |
-
|
39 |
-
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
avec des modèles de type BERT. question réponse générative ouverte : le
|
54 |
-
modèle génère du texte libre directement en fonction du contexte. question
|
55 |
-
réponse générative fermée : dans ce cas, aucun contexte n'est fourni. La
|
56 |
-
réponse est entièrement générée par un modèle.
|
57 |
-
example_title: Les modèles de langage
|
58 |
inference:
|
59 |
parameters:
|
60 |
max_length: 512
|
@@ -64,6 +56,10 @@ inference:
|
|
64 |
do_sample: false
|
65 |
num_beams: 8
|
66 |
early_stopping: true
|
|
|
|
|
|
|
|
|
67 |
---
|
68 |
|
69 |
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
|
|
|
1 |
---
|
|
|
2 |
language:
|
3 |
+
- fr
|
4 |
+
license: apache-2.0
|
5 |
tags:
|
6 |
+
- flan-t5
|
7 |
+
- qa
|
8 |
+
- lfqa
|
9 |
+
- information retrieval
|
10 |
datasets:
|
11 |
+
- vblagoje/lfqa
|
12 |
metrics:
|
13 |
+
- rouge
|
|
|
|
|
|
|
14 |
widget:
|
15 |
+
- text: 'Please answer to the following question : Comment fonctionne un modèle de
|
16 |
+
langue ? Que signifi un modèle de question réponse générative ? context : Les
|
17 |
+
modèles de langage basés sur le deep learning sont des modèles dapprentissage
|
18 |
+
automatique qui utilisent des techniques dapprentissage profond pour effectuer
|
19 |
+
des tâches de langage.En traitement automatique des langues, un modèle de langage
|
20 |
+
est un modèle statistique qui modélise la distribution de séquences de mots, plus
|
21 |
+
généralement de séquences de symboles discrets (lettres, phonèmes, mots), dans
|
22 |
+
une langue naturelle. Un modèle de langage peut par exemple prédire le mot suivant
|
23 |
+
une séquence de mots1.BERT, GPT-3 et Bloom sont des modèles de langage.Les modèles
|
24 |
+
de Question Réponse (QA) permette d''automatiser la réponse aux questions fréquemment
|
25 |
+
posées en utilisant une base de connaissances (documents) comme contexte. Les
|
26 |
+
réponses aux questions des clients peuvent être tirées de ces documents.Il existe
|
27 |
+
différentes variantes de modèle de question réponse : question réponse extractive
|
28 |
+
: le modèle extrait la réponse d''un contexte. Le contexte ici peut être un texte
|
29 |
+
fourni, un tableau ou même du HTML ! Ceci est généralement résolu avec des modèles
|
30 |
+
de type BERT. question réponse générative ouverte : le modèle génère du texte
|
31 |
+
libre directement en fonction du contexte. question réponse générative fermée
|
32 |
+
: dans ce cas, aucun contexte n''est fourni. La réponse est entièrement générée
|
33 |
+
par un modèle.Les modèles de langage basés sur le deep learning sont des modèles
|
34 |
+
dapprentissage automatique qui utilisent des techniques dapprentissage profond
|
35 |
+
pour effectuer des tâches de langage.En traitement automatique des langues, un
|
36 |
+
modèle de langage est un modèle statistique qui modélise la distribution de séquences
|
37 |
+
de mots, plus généralement de séquences de symboles discrets (lettres, phonèmes,
|
38 |
+
mots), dans une langue naturelle. Un modèle de langage peut par exemple prédire
|
39 |
+
le mot suivant une séquence de mots.Les modèles de Question Réponse (QA) permette d''automatiser
|
40 |
+
la réponse aux questions fréquemment posées en utilisant une base de connaissances
|
41 |
+
(documents) comme contexte. Les réponses aux questions des clients peuvent être
|
42 |
+
tirées de ces documents.Il existe différentes variantes de modèle de question
|
43 |
+
réponse : question réponse extractive : le modèle extrait la réponse d''un contexte.
|
44 |
+
Le contexte ici peut être un texte fourni, un tableau ou même du HTML ! Ceci est
|
45 |
+
généralement résolu avec des modèles de type BERT. question réponse générative
|
46 |
+
ouverte : le modèle génère du texte libre directement en fonction du contexte.
|
47 |
+
question réponse générative fermée : dans ce cas, aucun contexte n''est fourni.
|
48 |
+
La réponse est entièrement générée par un modèle. '
|
49 |
+
example_title: Les modèles de langage
|
|
|
|
|
|
|
|
|
|
|
50 |
inference:
|
51 |
parameters:
|
52 |
max_length: 512
|
|
|
56 |
do_sample: false
|
57 |
num_beams: 8
|
58 |
early_stopping: true
|
59 |
+
base_model: google/flan-t5-large
|
60 |
+
model-index:
|
61 |
+
- name: flan-t5-large-lfqa-fr-v3
|
62 |
+
results: []
|
63 |
---
|
64 |
|
65 |
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
|