|
--- |
|
language: |
|
- es |
|
metrics: |
|
- accuracy |
|
- precision |
|
- recall |
|
- f1 |
|
base_model: |
|
- cardiffnlp/twitter-xlm-roberta-base-sentiment |
|
pipeline_tag: text-classification |
|
library_name: transformers |
|
tags: |
|
- politics |
|
- senitment |
|
- argentina |
|
--- |
|
|
|
# Modelo de Clasificación de Sentimientos - Debate Presidencial Argentina 2023 |
|
|
|
Este modelo ha sido desarrollado en el marco de la Tesina para obtener el título de ***Licenciatura en Estadística en la Universidad Nacional de Rosario (UNR)***. |
|
|
|
**Autores:** |
|
- Alumna: Natalia Marín |
|
- Director: Mag. Marcos Miguel Prunello |
|
|
|
## Descripción |
|
|
|
Este modelo está diseñado para clasificar comentarios de diversas redes sociales obtenidos luego del primer debate presidencial en Argentina en el año 2023. Ha sido específicamente ajustado para analizar los comentarios sobre la candidata **Patricia Bullrich**. |
|
|
|
Para más información, consulte el siguiente enlace: [link](#) |
|
|
|
## Detalles del Modelo |
|
|
|
- **Modelo base preentrenado:** `cardiffnlp/twitter-xlm-roberta-base-sentiment` |
|
- **Ajuste específico:** El modelo ha sido fine-tuneado para clasificar comentarios sobre la candidata en el contexto de las elecciones presidenciales en Argentina. |
|
|
|
#### Métricas Generales |
|
| Métrica | Valor | |
|
|-----------|----------| |
|
| Accuracy | 0.7580| |
|
| F1 Score | 0.7386| |
|
| Precision | 0.7344| |
|
| Recall | 0.7580| |
|
|
|
|
|
## Cargar y Usar el Modelo en Python |
|
|
|
A continuación, se muestra un ejemplo de cómo cargar el modelo y su tokenizador, y realizar una predicción de sentimiento en un comentario: |
|
|
|
```python |
|
from transformers import XLMRobertaForSequenceClassification, XLMRobertaTokenizer |
|
import torch |
|
|
|
# Cargar el modelo y el tokenizador |
|
model_path = "natmarinn/sentimientos-bullrich" |
|
model = XLMRobertaForSequenceClassification.from_pretrained(model_path) |
|
tokenizer = XLMRobertaTokenizer.from_pretrained(model_path) |
|
|
|
# Texto de ejemplo |
|
texto = "Vamos pato" |
|
|
|
# Tokenización |
|
inputs = tokenizer(texto, return_tensors="pt", truncation=True) |
|
|
|
# Predicción |
|
with torch.no_grad(): |
|
outputs = model(**inputs) |
|
logits = outputs.logits |
|
pred_class = torch.argmax(logits, dim=1).item() |
|
|
|
# Mostrar resultado |
|
clases = ["Clase 0", "Clase 1", "Clase 2"] |
|
print(f"El comentario es clasificado como: {clases[pred_class]}") |
|
``` |
|
|
|
@misc {natalia_marín_2024, |
|
author = { {Natalia Marín, Marcos Miguel Prunello} }, |
|
title = { sentimientos-bullrich (Revision c4419dc) }, |
|
year = 2024, |
|
url = { https://huggingface.co/natmarinn/sentimientos-bullrich }, |
|
doi = { 10.57967/hf/3615 }, |
|
publisher = { Hugging Face } |
|
} |