Spaces:
Running
Running
title: Voxsense | |
emoji: 💻 | |
colorFrom: blue | |
colorTo: green | |
sdk: gradio | |
sdk_version: 4.44.0 | |
app_file: app.py | |
pinned: false | |
license: mit | |
short_description: Um app que transcreve e analisa sentimentos de áudios | |
# Voxsense | |
É uma aplicação que permite a transcrição de áudios de até 1 hora e realiza a análise de sentimentos da transcrição resultante. | |
## Como Usar | |
1. **Faça upload** de um arquivo de áudio (formatos suportados: WAV, MP3, etc.). | |
2. **Aguarde** enquanto o áudio é transcrito e as emoções são analisadas. | |
3. **Veja** a transcrição e as emoções detectadas exibidas na tela. | |
## Tecnologias Utilizadas | |
- **Gradio** para a interface web. | |
- **Transformers** da Hugging Face para modelos de NLP. | |
- **PyTorch** como backend. | |
## Modelos | |
- **Transcrição de Áudio:** `openai/whisper-small` | |
- **Análise de Emoções:** `joeddav/xlm-roberta-large-xnli` utilizando classificação zero-shot. | |
## Observações | |
- A precisão depende da qualidade do áudio e da clareza da fala. | |
- Para melhores resultados, utilize áudios com pouco ruído de fundo. | |
- O processamento pode levar algum tempo para áudios longos. | |
## Dependências | |
Veja o arquivo `requirements.txt` para as dependências necessárias. | |
## Contato | |
**LinkedIn:** [`marioluciofjr`](https://linkedin.com/in/marioluciofjr) | |