File size: 2,730 Bytes
bb5f4ca 53f90b1 bb5f4ca 53f90b1 bb5f4ca 53f90b1 bb5f4ca 53f90b1 bb5f4ca 53f90b1 bb5f4ca 75ba888 7789723 75ba888 7789723 75ba888 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 |
---
dataset_info:
features:
- name: text
dtype: string
splits:
- name: train
num_bytes: 1007749.44
num_examples: 720
- name: test
num_bytes: 279930.4
num_examples: 200
- name: eval
num_bytes: 111972.16
num_examples: 80
download_size: 625570
dataset_size: 1399651.9999999998
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
- split: test
path: data/test-*
- split: eval
path: data/eval-*
---
# Legislação UFAM
Este é um dataset que contém as legislações acadêmicas da Universidade Federal do Amazonas presente [nesta página](https://proeg.ufam.edu.br/normas-academicas/57-proeg/146-legislacao-e-normas.html).
Ele é composto de 3 partes:
- `pdf`: esta pasta contém todos os arquivos em pdf da página referenciada baixados com o uso em conjunto das bibliotecas `requests` e `BeautifulSoup`;
- `text`: esta pasta contém o texto presente nos arquivos da pasta pdf, detectado usando a [libtesseract](https://github.com/tesseract-ocr/tesseract);
- `data`: esta pasta contém um `Dataset` de perguntas com contexto e resposta, no formato requerido pelo modelo
[Llama-2-7b-chat-hf](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf):
```
<s>
[INST] Dado o seguinte contexto: {contexto}
Responda a seguinte pergunta: {pergunta} [/INST]
{resposta}
</s>
```
O `Dataset` presente em `data` foi gerado com o uso do modelo `gpt-4o-mini` da OpenAI, da seguinte forma:
1. Selecionamos aleatoriamente 3 trechos de legislação dos textos presentes na pasta `text`;
2. Submetemos esses 3 trechos em conjunto com o seguinte prompt para o modelo:
```
prompt = """\
Você é alguém associado à UFAM (estudante, professor ou funcionário). \
Você deve, dado um conjunto de até 3 artigos da legislação da UFAM separados \
por quebra de linha, gerar até 3 perguntas e as respostas dessas perguntas, \
e responder com um array JSON contendo objetos com as chaves 'question' e 'answer'. \
Se não for possível extrair nenhuma informação significativa das 3 linhas dadas como \
input, retorne um array vazio. Se fizer sentido, tente fazer perguntas que se utilizam \
de mais de uma linha da entrada. Responda com o JSON cru, sem nenhuma formatação adicional. \
Não cite nominalmente os artigos se não souber a lei da qual eles fazem parte, tanto na pergunta quanto na resposta. \
Não faça menção direta ou indireta ao contexto nas perguntas (não fale sobre a "legislação mencionada" ou algo do tipo).
Se alguma palavra não fizer sentido no texto, corrija-a."""
```
3. Repetimos o processo até termos 1000 exemplos de triplas (pergunta, contexto, resposta).
4. Essas triplas foram convertidas para o formato descrito acima. |