File size: 2,579 Bytes
c4419dc
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7c9313c
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
---
language:
- es
metrics:
- accuracy
- precision
- recall
- f1
base_model:
- cardiffnlp/twitter-xlm-roberta-base-sentiment
pipeline_tag: text-classification
library_name: transformers
tags:
- politics
- senitment
- argentina
---

# Modelo de Clasificación de Sentimientos - Debate Presidencial Argentina 2023

Este modelo ha sido desarrollado en el marco de la Tesina para obtener el título de ***Licenciatura en Estadística en la Universidad Nacional de Rosario (UNR)***.

**Autores:**  
- Alumna: Natalia Marín  
- Director: Mag. Marcos Miguel Prunello  

## Descripción

Este modelo está diseñado para clasificar comentarios de diversas redes sociales obtenidos luego del primer debate presidencial en Argentina en el año 2023. Ha sido específicamente ajustado para analizar los comentarios sobre la candidata **Patricia Bullrich**.

Para más información, consulte el siguiente enlace: [link](#)

## Detalles del Modelo

- **Modelo base preentrenado:** `cardiffnlp/twitter-xlm-roberta-base-sentiment`
- **Ajuste específico:** El modelo ha sido fine-tuneado para clasificar comentarios sobre la candidata en el contexto de las elecciones presidenciales en Argentina.

#### Métricas Generales
| Métrica   | Valor    |
|-----------|----------|
| Accuracy  | 0.7580|
| F1 Score  | 0.7386|
| Precision | 0.7344|
| Recall    | 0.7580|


## Cargar y Usar el Modelo en Python

A continuación, se muestra un ejemplo de cómo cargar el modelo y su tokenizador, y realizar una predicción de sentimiento en un comentario:

```python
from transformers import XLMRobertaForSequenceClassification, XLMRobertaTokenizer
import torch

# Cargar el modelo y el tokenizador
model_path = "natmarinn/sentimientos-bullrich"
model = XLMRobertaForSequenceClassification.from_pretrained(model_path)
tokenizer = XLMRobertaTokenizer.from_pretrained(model_path)

# Texto de ejemplo
texto = "Vamos pato"

# Tokenización
inputs = tokenizer(texto, return_tensors="pt", truncation=True)

# Predicción
with torch.no_grad():
    outputs = model(**inputs)
    logits = outputs.logits
    pred_class = torch.argmax(logits, dim=1).item()

# Mostrar resultado
clases = ["Clase 0", "Clase 1", "Clase 2"]
print(f"El comentario es clasificado como: {clases[pred_class]}")
```

@misc {natalia_marín_2024,
	author       = { {Natalia Marín, Marcos Miguel Prunello} },
	title        = { sentimientos-bullrich (Revision c4419dc) },
	year         = 2024,
	url          = { https://huggingface.co/natmarinn/sentimientos-bullrich },
	doi          = { 10.57967/hf/3615 },
	publisher    = { Hugging Face }
}