Nature:人工智能出病理报告,准确率高达89.5%!
Bringing medical advances from the lab to the clinic
关键词:病理;人工智能;Nature
(更多生物医学前沿,点击👆免费获取)
在该研究中,这个结合视觉编码器和大型语言模型(LLM)的多模态生成式AI助手PathChat的核心组件包括:
视觉编码器:预训练于超过100万张病理学图像,以提取高维图像特征。
多模态投影模块:将视觉特征映射到LLM的嵌入空间,使得视觉和语言信息可以结合处理。
大型语言模型(LLM):使用13亿参数的Llama 2模型,能够处理复杂的自然语言指令并生成响应。
研究方法与数据集
为训练和评估PathChat,研究团队构建了一个包含456,916条指令的数据集,其中包括999,202次问答回合。数据集来源多样,涵盖了图像说明、PubMed开放获取文章、病理学病例报告和全视野图像的兴趣区域。
此外,研究团队还创建了一个高质量的病理学问答基准(PathQABench),包括从多家医院收集的105例全视野图像。评估方法包括多选诊断问题和开放性问题,分别测试PathChat在病理图像分析和临床背景结合诊断中的表现。
主要结果
多选诊断问题表现:
无临床背景下:PathChat在多选诊断问题中表现优异,准确率达78.1%,显著高于LLaVA 1.5和LLaVA-Med(分别提高52.4%和63.8%,p < 0.001)。
有临床背景下:结合临床背景后,PathChat的准确率进一步提升至89.5%,相较于无临床背景提高了11.4%。
开放性问题回答表现:
PathChat在开放性问题回答中生成的响应被专家评估为更准确和更受欢迎。相较于GPT4V,PathChat在回答病理学相关复杂问题时表现更佳。
在“显微镜检查”和“诊断”类别的问题中,PathChat的准确率分别为73.3%和78.5%,显著高于GPT4V的22.8%和31.6%(p < 0.001)。
专家评估:
专家评估显示,PathChat在多项任务中的表现均优于其他多模态语言模型,包括LLaVA 1.5和LLaVA-Med。在“显微镜检查”和“诊断”类别中,PathChat的表现尤其突出。
编者按:
随着人工智能的发展,AI医学助手进入到临床已经成为必然。
PathChat作为一个多模态生成式AI助手,展示了其在病理学领域的巨大潜力。通过结合视觉和语言输入,该助手不仅在诊断准确性上表现出色,还在病理学教育和研究中具有重要应用价值。
临床应用:
PathChat能够辅助病理医生进行更准确的诊断,提高诊断效率并减少误诊风险。其结合视觉和语言的能力使其在处理复杂病例时尤为有效。
该AI助手还可用于医学教育,为病理学培训提供专家级指导,缩小区域医疗差距。
但目前就讨论AI医生替代病理科医生尚早。之前在北京协和医院病理科工作的Dr. Meng认为,90%的准确率仍然太低了。病理学研究员 Lou Vaickus 亦表示,目前仍无法依赖AI助手的诊断。
科研启发: PathChat展示了多模态生成式AI在病理学中的广泛应用前景,未来研究可以进一步优化该模型,如通过人类反馈强化学习(RLHF)降低错误生成。
未来的研究方向还包括支持输入整张全视野图像(WSI),提高在诊断边界性病变时的实用性。
AI助手准确率仍有待提高,也提出了重要而未解决的临床问题:目前阶段如何利用AI助手,未来如何让AI助手的准确率超过病理科医生。
原文链接:
https://www.nature.com/articles/s41586-024-07618-3
声明:
本文只是分享和解读公开的研究论文及其发现,以作科学文献记录和科研启发用;并不代表作者或本公众号的观点,更不代表本公众号认可研究结果或文章。
为了给大家提供一个完整而客观的信息视角,我们有时会分享有冲突或不同的研究结果。请大家理解,随着对疾病的研究不断深入,新的证据有可能修改或推翻之前的结论。
作者:Dr. Xie;助理:ChatGPT;编辑:Jessica。
美国Healsan Consulting(恒祥咨询),专长于Healsan医学大数据分析(Healsan™)、及基于大数据的Hanson临床科研培训(HansonCR™)和医学编辑服务(MedEditing™)。主要为医生科学家、生物制药公司和医院科研处等提供分析和报告,成为诸多机构的“临床科研外挂”。
网址:https://healsan.com/
微信扫码关注该文公众号作者