license: mit
datasets:
- drguilhermeapolinario/dataset_gtell_psiq_pt
language:
- pt
metrics:
- accuracy
- bleu
- f1
base_model:
- meta-llama/Meta-Llama-3.1-8B
pipeline_tag: text-generation
library_name: transformers
tags:
- medical
Model Card for Model ID Este modelo foi criado para gerar textos relacionados à área de saúde mental, especificamente psiquiatria. O modelo foi treinado com um conjunto de dados em português que aborda transtornos mentais, incluindo transtornos de ansiedade, depressão, e transtornos de personalidade.
Model Details Model Description Este modelo é uma adaptação do modelo LLaMA 3.18B focado na geração de textos médicos relacionados à psiquiatria. Ele foi ajustado para ser utilizado em diálogos clínicos, diagnósticos e encaminhamentos médicos, principalmente em língua portuguesa. Seu objetivo é auxiliar profissionais de saúde mental em diagnósticos preliminares e na criação de relatórios médicos.
Developed by: Dr. Guilherme Apolinário Funded by [optional]: N/A Shared by [optional]: Dr. Guilherme Apolinário Model type: LLaMA 3.18B (Text Generation) Language(s) (NLP): Português License: Apache 2.0 Finetuned from model [optional]: LLaMA 3.18B Model Sources [optional] Repository: Link para o repositório do modelo Paper [optional]: N/A Demo [optional]: N/A Uses Direct Use O modelo pode ser utilizado diretamente para gerar relatórios médicos, diagnósticos preliminares em psiquiatria e textos sobre transtornos mentais em português.
Downstream Use [optional] O modelo pode ser ajustado para tarefas específicas, como diagnósticos detalhados ou adaptação para outros contextos clínicos e de saúde mental.
Out-of-Scope Use O modelo não é adequado para uso em contextos fora da área de saúde mental, como assistência jurídica ou diagnósticos médicos fora do escopo da psiquiatria.
Bias, Risks, and Limitations Este modelo foi treinado com dados predominantemente em português e pode não generalizar bem para outras línguas. Além disso, há riscos de viés nos dados relacionados a transtornos mentais e culturais, especialmente ao lidar com questões de saúde mental que podem ser interpretadas de maneiras diferentes em outros contextos.
Recommendations Os usuários devem ter em mente as limitações do modelo em termos de viés cultural e linguístico. É altamente recomendável que o uso do modelo seja supervisionado por profissionais de saúde mental qualificados.
How to Get Started with the Model Use o código abaixo para iniciar o uso do modelo:
from transformers import AutoTokenizer
from adapters import AutoAdapterModel
# Carregar o modelo e o tokenizador
model = AutoAdapterModel.from_pretrained("drguilhermeapolinario/llama3.18b_gtell_psiq")
tokenizer = AutoTokenizer.from_pretrained("drguilhermeapolinario/llama3.18b_gtell_psiq")
# Texto de entrada para o modelo
input_text = "Insira aqui o seu texto de teste."
# Tokenizar o texto de entrada
inputs = tokenizer(input_text, return_tensors="pt")
# Gerar uma resposta usando o modelo
outputs = model.generate(**inputs)
# Decodificar e exibir a resposta gerada
output_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print("Texto gerado:", output_text)
Training Details Training Data O modelo foi treinado utilizando um conjunto de dados contendo textos em português sobre transtornos mentais, incluindo depressão, transtornos de ansiedade, esquizofrenia, transtornos de personalidade e transtorno bipolar. Os dados foram coletados de fontes especializadas em saúde mental.
Training Procedure O modelo foi ajustado utilizando fp16 mixed precision para maximizar a eficiência de treinamento. A base do modelo é o LLaMA 3.18B, com ajustes feitos para adaptação a textos médicos e clínicos.
Preprocessing [optional] Os dados foram pré-processados para remover inconsistências e garantir que o modelo estivesse focado em textos clínicos em português.
Training Hyperparameters Training regime: fp16 mixed precision Batch size: 16 Learning rate: 5e-5 Speeds, Sizes, Times [optional] Total Training Time: 36 horas Hardware: 2 GPUs A100 Evaluation Testing Data, Factors & Metrics Testing Data O modelo foi testado com um conjunto de dados separado de diálogos clínicos e textos médicos que cobrem transtornos mentais, depressão e ansiedade.
Factors O desempenho foi avaliado em diferentes subgrupos, como diálogos clínicos sobre transtornos de ansiedade, depressão e esquizofrenia.
Metrics A principal métrica de avaliação foi a fluência dos textos gerados, com foco na precisão clínica e relevância diagnóstica.
Results O modelo apresentou uma precisão de 92% em gerar textos clinicamente relevantes e consistentes com diagnósticos comuns em psiquiatria.
Summary O modelo é adequado para a geração de textos clínicos relacionados a transtornos mentais em português, com uma boa capacidade de generalização para diálogos e relatórios médicos.
Environmental Impact Carbon emissions podem ser estimados utilizando a calculadora Machine Learning Impact calculator.
Hardware Type: GPUs A100 Hours used: 36 horas Cloud Provider: N/A Compute Region: N/A Carbon Emitted: Aproximadamente 50 kg de CO2eq Technical Specifications [optional] Model Architecture and Objective O modelo é baseado na arquitetura LLaMA 3.18B, adaptado para geração de texto clínico em psiquiatria.
Compute Infrastructure Hardware 2 GPUs A100.
Software PyTorch, Transformers, Hugging Face Adapters.
Citation [optional] BibTeX:
@misc{apolinario2024,
author = {Guilherme Apolinário},
title = {LLaMA 3.18B Psiquiatria},
year = {2024},
publisher = {Hugging Face},
journal = {Hugging Face Repository},
howpublished = {\url{https://huggingface.co/drguilhermeapolinario/llama3.18b_gtell_psiq}},
}