File size: 2,333 Bytes
f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 f612a1d 4551716 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 |
---
library_name: optimum
tags: []
---
# Optimum RoBERTa-base-SQuAD2 Quantizado
## Introdução
Este repositório contém uma versão quantizada do modelo [`optimum/roberta-base-squad2`](https://huggingface.co/optimum/roberta-base-squad2), desenvolvido por Branden Chan et al. A quantização foi realizada utilizando a biblioteca Optimum ONNX para reduzir o tamanho do modelo e melhorar a eficiência, mantendo uma precisão aceitável.
## Avaliação
Os modelos foram testados utilizando 600 entradas do conjunto de validação da base de dados [rajpurkar/squad_v2](https://huggingface.co/datasets/rajpurkar/squad_v2).
1. **Redução da Latência**:
- **Modelo Original**: 0.572 segundos por amostra
- **Modelo Quantizado**: 0.437 segundos por amostra
- **Análise**: A latência foi significativamente reduzida, tornando o modelo mais adequado para aplicações em tempo real.
2. **Aumento da Eficiência**:
- **Tempo Total**:
- **Modelo Original**: 343.20 segundos
- **Modelo Quantizado**: 262.41 segundos
- **Análise**: O tempo total de execução foi consideravelmente reduzido.
- **Amostras por Segundo**:
- **Modelo Original**: 1.75 amostras/segundo
- **Modelo Quantizado**: 2.29 amostras/segundo
- **Análise**: A taxa de processamento aumentou, permitindo que mais amostras sejam processadas no mesmo período de tempo.
3. **Manutenção de Precisão Razoável**:
- **Exact Score**:
- **Modelo Original**: 81.67
- **Modelo Quantizado**: 80.5
- **Análise**: Pequena queda na precisão, mas ainda em nível aceitável.
- **F1 Score**:
- **Modelo Original**: 83.75
- **Modelo Quantizado**: 82.49
- **Análise**: Queda ligeira no desempenho de F1 Score.
4. **Comparação do Espaço Ocupado na Memória**:
- **Modelo Original**: 476.52 MB
- **Modelo Quantizado**: 122.41 MB
- **Análise**: A quantização resultou em uma redução significativa no espaço ocupado, com o modelo quantizado utilizando apenas cerca de 25.7% do tamanho do modelo original.
Esses resultados indicam que a quantização foi bem-sucedida, alcançando uma redução significativa na latência, aumento na eficiência e uma economia substancial de espaço na memória, enquanto mantém uma precisão aceitável para tarefas de perguntas e respostas. |