Datasets:

Modalities:
Text
Languages:
Spanish
Libraries:
Datasets
License:
crodri commited on
Commit
9591fa9
1 Parent(s): 6dafac4
Files changed (2) hide show
  1. README.md +143 -1
  2. hftrain_esv5.json +1 -2
README.md CHANGED
@@ -1,3 +1,145 @@
1
  ---
2
- license: cc-by-4.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ YAML tags:
3
+ annotations_creators:
4
+ - automatically-generated
5
+ language_creators:
6
+ - found
7
+ language:
8
+ - es
9
+ license:
10
+ - cc-by-sa-3.0
11
+ multilinguality:
12
+ - monolingual
13
+ pretty_name: wikicat_esv2
14
+ size_categories:
15
+ - unknown
16
+ source_datasets: []
17
+ task_categories:
18
+ - text-classification
19
+ task_ids:
20
+ - multi-class-classification
21
  ---
22
+
23
+ # WikiCAT_ca: Spanish Text Classification dataset
24
+
25
+
26
+ ## Dataset Description
27
+
28
+ - **Paper:**
29
+
30
+ - **Point of Contact:** Carlos Rodríguez-Penagos ([email protected])
31
+
32
+
33
+ **Repository**
34
+
35
+ https://github.com/TeMU-BSC/WikiCAT
36
+
37
+
38
+ ### Dataset Summary
39
+
40
+ WikiCAT_ca is a Spanish corpus for thematic Text Classification tasks. It is created automatically from Wikipedia and Wikidata sources, and contains 8401 articles from the Viquipedia classified under 12 different categories.
41
+
42
+ This dataset was developed by BSC TeMU as part of the PlanTL project, and intended as an evaluation of LT capabilities to generate useful synthetic corpus.
43
+
44
+ ### Supported Tasks and Leaderboards
45
+
46
+ Text classification, Language Model
47
+
48
+ ### Languages
49
+
50
+ ES- Spanish
51
+
52
+ ## Dataset Structure
53
+
54
+ ### Data Instances
55
+
56
+ Two json files, one for each split.
57
+
58
+ ### Data Fields
59
+
60
+ We used a simple model with the article text and associated labels, without further metadata.
61
+
62
+ #### Example:
63
+
64
+ <pre>
65
+ {'sentence': 'La economía de Reunión se ha basado tradicionalmente en la agricultura. La caña de azúcar ha sido el cultivo principal durante más de un siglo, y en algunos años representa el 85% de las exportaciones. El gobierno ha estado impulsando el desarrollo de una industria turística para aliviar el alto desempleo, que representa más del 40% de la fuerza laboral.(...) El PIB total de la isla fue de 18.800 millones de dólares EE.UU. en 2007., 'label': 'Economía'}
66
+
67
+
68
+ </pre>
69
+
70
+ #### Labels
71
+
72
+ 'Religión', 'Entretenimiento', 'Música', 'Ciencia_y_Tecnología', 'Política', 'Economía', 'Matemáticas', 'Humanidades', 'Deporte', 'Derecho', 'Historia', 'Filosofía'
73
+
74
+ ### Data Splits
75
+
76
+ * hfeval_esv5.json: 1681 label-document pairs
77
+ * hftrain_esv5.json: 6716 label-document pairs
78
+
79
+
80
+ ## Dataset Creation
81
+
82
+ ### Methodology
83
+
84
+ La páginas de "Categoría" representan los temas.
85
+ para cada tema, extraemos las páginas asociadas a ese primer nivel de la jerarquía, y utilizamos el resúmen ("summary" como texto representativo.
86
+
87
+ ### Curation Rationale
88
+
89
+
90
+
91
+ ### Source Data
92
+
93
+ #### Initial Data Collection and Normalization
94
+
95
+ The source data are thematic categories in the different Wikipedias
96
+
97
+ #### Who are the source language producers?
98
+
99
+
100
+ ### Annotations
101
+
102
+ #### Annotation process
103
+ Automatic annotation
104
+
105
+ #### Who are the annotators?
106
+
107
+ [N/A]
108
+
109
+ ### Personal and Sensitive Information
110
+
111
+ No personal or sensitive information included.
112
+
113
+ ## Considerations for Using the Data
114
+
115
+ ### Social Impact of Dataset
116
+
117
+ We hope this corpus contributes to the development of language models in Spanish.
118
+
119
+ ### Discussion of Biases
120
+
121
+ We are aware that this data might contain biases. We have not applied any steps to reduce their impact.
122
+
123
+ ### Other Known Limitations
124
+
125
+ [N/A]
126
+
127
+ ## Additional Information
128
+
129
+ ### Dataset Curators
130
+
131
+ Text Mining Unit (TeMU) at the Barcelona Supercomputing Center ([email protected]).
132
+
133
+ For further information, send an email to ([email protected]).
134
+
135
+ This work was funded by the [Spanish State Secretariat for Digitalization and Artificial Intelligence (SEDIA)](https://avancedigital.mineco.gob.es/en-us/Paginas/index.aspx) within the framework of the [Plan-TL](https://plantl.mineco.gob.es/Paginas/index.aspx).
136
+
137
+ ### Licensing Information
138
+
139
+ This work is licensed under [CC Attribution 4.0 International](https://creativecommons.org/licenses/by/4.0/) License.
140
+
141
+ Copyright by the Spanish State Secretariat for Digitalization and Artificial Intelligence (SEDIA) (2022)
142
+
143
+ ### Contributions
144
+
145
+ [N/A]
hftrain_esv5.json CHANGED
@@ -1,5 +1,4 @@
1
- {
2
- "version": "2.0.0",
3
  "data": [
4
  {
5
  "sentence": "En estadística, un modelo probit es un tipo de regresión donde la variable dependiente puede tomar solo dos valores, por ejemplo, casados o no casados. La palabra es un acrónimo, viene de probabilidad + unit (unidad).[1]​ El propósito del modelo es estimar la probabilidad de que una observación con características particulares caerá en una categoría específica; además, clasificando las observaciones basadas en sus probabilidades predichas es un tipo de modelo de clasificación binario .\nUn modelo probit es una especificación popular para un modelo de respuesta ordinal[2]​ o binario. Como tal, trata el mismo conjunto de problemas que la regresión logística utilizando técnicas similares. El modelo probit, que emplea una función de enlace probit, se suele estimar utilizando el procedimiento estándar de máxima verosimilitud , que se denomina una regresión probit.\nLos modelos Probit fueron presentados por Chester Bliss en 1934;[3]​ Ronald Fisher propuso un método rápido para calcular las estimaciones de máxima verosimilitud para ellos como apéndice del trabajo de Bliss en 1935.[4]​",
 
1
+ {"version": "2.0.0",
 
2
  "data": [
3
  {
4
  "sentence": "En estadística, un modelo probit es un tipo de regresión donde la variable dependiente puede tomar solo dos valores, por ejemplo, casados o no casados. La palabra es un acrónimo, viene de probabilidad + unit (unidad).[1]​ El propósito del modelo es estimar la probabilidad de que una observación con características particulares caerá en una categoría específica; además, clasificando las observaciones basadas en sus probabilidades predichas es un tipo de modelo de clasificación binario .\nUn modelo probit es una especificación popular para un modelo de respuesta ordinal[2]​ o binario. Como tal, trata el mismo conjunto de problemas que la regresión logística utilizando técnicas similares. El modelo probit, que emplea una función de enlace probit, se suele estimar utilizando el procedimiento estándar de máxima verosimilitud , que se denomina una regresión probit.\nLos modelos Probit fueron presentados por Chester Bliss en 1934;[3]​ Ronald Fisher propuso un método rápido para calcular las estimaciones de máxima verosimilitud para ellos como apéndice del trabajo de Bliss en 1935.[4]​",