宁德生活圈

网站首页 科技 > 正文

医学影像AI技术可能导致错误诊断

2021-09-14 06:27:08 科技 来源:
导读 最近的一项研究表明,机器学习和AI在医学图像重建中非常不稳定,可能导致误报和误报。由剑桥大学和西蒙弗雷泽大学牵头的一组研究人员针对基

最近的一项研究表明,机器学习和AI在医学图像重建中非常不稳定,可能导致误报和误报。

医学成像中的AI技术可能会导致错误的诊断

由剑桥大学和西蒙弗雷泽大学牵头的一组研究人员针对基于AI和深度学习的医学图像重建算法设计了一系列测试,发现这些技术会导致大量的伪影或不必要的数据变化,以及最终图像的其他重大错误。这种效果在非基于AI的成像技术中通常不存在。

这种现象广泛分布在不同类型的人工神经网络中,这表明这个问题不会轻易解决。研究人员警告说,依靠基于人工智能的图像重建技术来诊断和确定治疗方法最终可能会伤害患者。他们的结果发表在《美国国家科学院院刊》。

剑桥大学应用数学系系主任安德斯汉森说:“人们对医学影像领域的AI充满热情,它可能具有创新现代医学的潜力。然而,也有不可忽视的潜在陷阱。”理论物理学,由西蒙弗雷泽大学的本阿德科克博士领导。“我们发现,AI技术在医学成像中非常不稳定,因此输入的微小变化可能会导致输出的巨大变化。”

典型的核磁共振扫描可能需要15分钟到两个小时,这取决于扫描区域的大小和拍摄的图像数量。患者在机器中待的时间越长,最终图像的分辨率越高。但是,有必要限制患者在机器中花费的时间,以降低单个患者的风险,并增加可以执行的扫描总数。

利用AI技术提高MRI扫描或其他类型医学成像的图像质量,是解决在最短时间内获得最高质量图像问题的一种有吸引力的可能性:理论上,AI可以拍摄低分辨率图像,并将其制作成高分辨率版本。人工智能算法基于先前数据的训练“学习”重建图像,并通过该训练过程优化重建质量。与仅基于数学理论而不依赖于以往数据的经典重建技术相比,这代表着根本性的改变。特别是经典的技术是学不会的。

任何AI算法都需要两样东西来保证其可靠性:准确性和稳定性。AI通常将猫的图像归类为猫,但图像中几乎看不见的微小变化可能会导致算法将猫归类为卡车或桌子。在这个图像分类的例子中,可能出错的一点是图像分类不正确。然而,在图像重建中可能会出现错误,例如在医学成像中使用的错误。例如,肿瘤等细节可能会丢失或添加不正确。细节可能会模糊,图像中可能会出现不必要的伪像。

汉森说:“当涉及到有关人类健康的关键决策时,我们不能让算法出错。”“我们发现,如果使用AI和深度学习来重建医学图像,最轻微的损伤(例如,可能是由患者运动引起的)可能会产生非常不同的结果,这意味着这些算法缺乏所需的稳定性。”

汉森和他来自挪威、葡萄牙、加拿大和英国的同事设计了一系列测试,以发现基于人工智能的医学成像系统(包括磁共振成像、计算机断层扫描和核磁共振成像)的缺陷。他们考虑了三个关键问题:与小扰动或运动相关的不稳定性;小结构变化的不稳定性,如有无小肿瘤的脑影像;以及样本数变化的不稳定性。

他们发现,一些轻微的运动会导致最终图像中出现大量的伪影,细节会模糊或完全去除,图像重建的质量会因为重复的二次采样而恶化。这些误差广泛分布在不同类型的神经网络中。

研究人员认为,最令人担忧的错误是放射科医生可能会将其解释为医学问题,而不是那些由于技术错误而容易消除的错误。

汉森说:“我们开发这个测试是为了验证我们的论点,即深度学习技术在医学成像中通常是不稳定的。”“我们预测的原因是,如何在有限的扫描时间内很好地重建是有限制的。从某种意义上说,现代AI技术打破了这个障碍,结果变得不稳定。我们已经从数学上证明,我们为这些不稳定因素买单,或者简单地说,现在仍然没有免费的午餐。”

研究人员现在专注于提供人工智能技术能够实现的基本限制。只有知道了这些局限性,我们才能理解可以解决的问题。汉森说:“基于反复试验的研究永远不会发现炼金术士不能制造黄金:我们在现代AI中处于类似的情况。”“这些技术永远不会发现它们的局限性。这些局限性只能用数学来表示。”

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。

标签:医学影像AI技术。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: