Edit model card

XrayQwen

githubHuggingFacemodelscope

GitHub licenseGitHub StarsGitHub ForksGitHub Contributors

📕 项目介绍

医疗场景一直是人工智能技术所关注并尝试介入和解决的真实场景. 随着ChatGPT为代表的生成式大规模语言模型(LLM, Large Language Models)等相关技术的爆发, 大量的LLM涌入医疗场景. 虽然LLM极大地推动了多模态大语言模型(MLLM, Multimodal Large Language Models)的进展, 如MiniGPT-4mPLUG-OwlLLaVA等, 但是相关的MLLM技术却没有复刻LLM涌入医疗场景的繁荣景象, 尤其是中文领域, 阻碍了相关的研究进展. 我们认为究其原因不仅在于高质量中文多模态医疗数据的稀缺, 也在于缺少进入的勇气和想象力. 我们希望XrayQwen能和一些伟大的前辈项目们一道, 为推动相关领域做出一些微小的贡献.

我们在文心一言的帮助下从MIMIC-CXROpenI两个两个数据集的自由文本放射学报告中生成中文版X射线报告配对数据用于本项目的训练数据, 并经过人工清洗和筛选.

我们利用上述数据在强大的基座模型Qwen-VL上进行微调, 得到XrayQwen.

需要特别说明的是, XrayQwen仍然存在诸多不足, 目前仅作为生成式多模态大模型在医疗场景下的概念探索, 其输出内容并不代表真实的诊断结果, 具体结果请遵循医生.

🚀 开始使用

1. 安装依赖

pip install -r requirements.txt -U -i https://mirrors.aliyun.com/pypi/simple/

2. 模型列表

模型名称 合并后的权重
XrayQwen ModelScope / HuggingFace / OpenXLab

3. 模型推理

Python Inference代码:

from modelscope import (
    snapshot_download, AutoModelForCausalLM, AutoTokenizer, GenerationConfig
)
import torch
model_id = 'X-D-Lab/XrayQwen'
revision = 'v1.0.1'

model_dir = snapshot_download(model_id, revision=revision)
torch.manual_seed(1234)

# 请注意:分词器默认行为已更改为默认关闭特殊token攻击防护。
tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
if not hasattr(tokenizer, 'model_dir'):
    tokenizer.model_dir = model_dir
# 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存
model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="auto", trust_remote_code=True, bf16=True).eval()
# 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存
# model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="auto", trust_remote_code=True, fp16=True).eval()
# 使用CPU进行推理,需要约32GB内存
# model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="cpu", trust_remote_code=True).eval()
# 默认使用自动模式,根据设备自动选择精度
# model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="auto", trust_remote_code=True).eval()

# 可指定不同的生成长度、top_p等相关超参
model.generation_config = GenerationConfig.from_pretrained(model_dir, trust_remote_code=True)

# 第一轮对话 1st dialogue turn
query = tokenizer.from_list_format([
    {'image': './assets/test.png'},
    {'text': '这张图片的背景里有什么内容?'},
])
response, history = model.chat(tokenizer, query=query, history=None)
print(response)
# 胸部X光片显示没有急性心肺功能异常。心脏大小正常,纵隔轮廓不明显。肺部清晰,没有局灶性固结、气胸或胸腔积液的迹象。

WebUI运行

python3 ./scripts/webui_demo.py

此时访问http://127.0.0.1:7860 即可.

🙇‍ ‍致谢

在项目进行中受到以下平台及项目的大力支持, 在此表示感谢!

  1. OpenI启智社区: 提供模型训练算力;
  2. Qwen-VL: 提供非常优秀的基础模型;
  3. 魔搭ModelScope: 提供模型存储;
  4. XrayGLMXrayPULSE: 在此类工作上的探索性尝试.

此外, 对参与本项目数据收集、标注、清洗的所有同学表示衷心的感谢!

👏 欢迎

  1. 针对不同用户需求和应用场景, 我们也热情欢迎商业交流和合作, 为各位客户提供个性化的开发和升级服务!

  2. 欢迎专业的医疗人士对XrayQwen进行专业性指导和需求建议, 鼓励开源社区使用并反馈XrayQwen, 促进我们对下一代XrayQwen模型的开发.

  3. XrayQwen模型对于学术研究完全开放, 但需要遵循Mulan - OpenI Model License V1 (Beta)协议. 对XrayQwen模型进行商用, 请通过组织主页邮箱发送邮件进行细节咨询.

⚠️ 免责声明

本仓库开源代码遵循Apache License 2.0协议、模型遵循Mulan - OpenI Model License V1 (Beta)许可认证. 目前开源的XrayQwen模型可能存在部分局限, 因此我们对此做出如下声明:

  1. XrayQwen目前仅作为生成式多模态大模型在医疗场景下的概念探索,模型本身可能存在固有的局限性, 可能产生错误的、有害的、冒犯性的或其他不良的输出. 用户在关键或高风险场景中应谨慎行事, 不要使用模型作为最终决策参考, 以免导致人身伤害、财产损失或重大损失.

  2. XrayQwen在任何情况下, 作者、贡献者或版权所有者均不对因软件或使用或其他软件交易而产生的任何索赔、损害赔偿或其他责任(无论是合同、侵权还是其他原因)承担责任.

  3. 使用XrayQwen即表示您同意这些条款和条件, 并承认您了解其使用可能带来的潜在风险. 您还同意赔偿并使作者、贡献者和版权所有者免受因您使用XrayQwen而产生的任何索赔、损害赔偿或责任的影响.

🤝 引用

@misc{XrayQwen, 
  author={Xin Yan, Dong Xue*}, 
  title = {XrayQwen: A Chinese multimodal medical model for chest radiographs}, 
  year = {2023}, 
  publisher = {GitHub}, 
  journal = {GitHub repository}, 
  howpublished = {\url{https://github.com/X-D-Lab/XrayQwen}}, 
}
Downloads last month
15
Inference Examples
Inference API (serverless) does not yet support model repos that contain custom code.