一项新的研究表明,机器学习和AI在医学图像重建中非常不稳定,并且可能导致误报和误报。
由剑桥大学和西蒙弗雷泽大学领导的一组研究人员针对基于AI和深度学习的医学图像重建算法设计了一系列测试,发现这些技术会导致大量伪像或数据中的不必要更改,以及最终图像中的其他主要错误。在基于非AI的成像技术中通常不存在这种效果。
这种现象广泛分布在不同类型的人工神经网络中,这表明该问题将不容易解决。研究人员告诫说,依靠基于AI的图像重建技术进行诊断并确定治疗方法可能最终会对患者造成伤害。他们的结果发表在《美国国家科学院院刊》上。
剑桥大学应用数学系主任安德斯·汉森(Anders Hansen)表示:“ 人们对医学成像中的 AI充满热情,它可能具有革新现代医学的潜力:但是,存在潜在的陷阱,不容忽视。”理论物理学,由西蒙·弗雷泽大学的本·阿德考克博士领导研究。“我们发现AI技术在医学成像中非常不稳定,因此输入的微小变化可能会导致输出的巨大变化。”
典型的MRI扫描可能需要15分钟到两个小时之间的任何时间,具体取决于扫描区域的大小和所拍摄图像的数量。患者在机器内花费的时间越长,最终图像的分辨率就越高。但是,需要限制患者在机器内花费的时间,以减少单个患者的风险并增加可以执行的扫描总数。
使用AI技术提高MRI扫描或其他类型医学成像的图像质量是解决在最短时间内获得最高质量图像的问题的有吸引力的可能性:理论上,AI可以拍摄低分辨率图像并使其成为高分辨率版本。AI算法基于先前数据的训练来“学习”重建图像,并通过此训练过程来优化重建质量。与仅基于数学理论而不依赖先前数据的经典重建技术相比,这代表了根本性的变化。特别是,古典技术不会学习。
任何AI算法都需要两件事来保证可靠性:准确性和稳定性。AI通常会将猫的图像分类为猫,但是图像中几乎看不见的微小变化可能会导致算法将猫分类为卡车或桌子。在此图像分类示例中,可能出错的一件事是图像分类不正确。但是,在图像重建(例如医学成像中使用的图像重建)方面,可能会出错。例如,诸如肿瘤之类的细节可能会丢失或被错误地添加。细节可能被遮盖,并且图像中可能会出现不需要的伪影。
汉森说:“当涉及到有关人类健康的关键决策时,我们不能让算法犯错误。” “我们发现,如果您使用AI和深度学习来重建医学图像,那么最细微的损坏(例如可能是由患者移动引起的)可能会产生截然不同的结果,这意味着这些算法缺乏所需的稳定性。”
Hansen及其来自挪威,葡萄牙,加拿大和英国的同事设计了一系列测试,以发现基于AI的医学成像系统(包括MRI,CT和NMR)的缺陷。他们考虑了三个关键问题:与微小扰动或运动相关的不稳定性;关于微小结构变化的不稳定性,例如带有或不带有小肿瘤的大脑图像;以及样本数量变化的不稳定性。
他们发现某些微小的运动会导致最终图像中出现大量伪像,细节被模糊或完全去除,并且图像重建的质量会因重复进行二次采样而变差。这些错误广泛分布在不同类型的神经网络中。
研究人员认为,最令人担忧的错误是放射科医生可能将其解释为医学问题,而不是那些由于技术错误而可以轻易消除的错误。
汉森说:“我们开发了这项测试,以验证我们的论点,即深度学习技术在医学成像中普遍不稳定。” “我们进行预测的理由是,在有限的扫描时间下如何进行良好的重建是有局限的。从某种意义上说,现代AI技术打破了这一障碍,结果变得不稳定。我们通过数学方法证明了为这些不稳定因素付出代价,或者简单地说:仍然没有免费的午餐之类的东西。”
研究人员现在专注于提供AI技术可以完成的基本限制。只有知道了这些限制,我们才能了解可以解决的问题。汉森说:“基于试验和错误的研究永远不会发现炼金术士无法制造黄金:我们在现代AI方面处于类似情况。” “这些技术永远不会发现自己的局限性。这些局限性只能以数学方式显示出来。”
-
神经网络
+关注
关注
42文章
4759浏览量
100446 -
深度学习
+关注
关注
73文章
5485浏览量
120920
发布评论请先 登录
相关推荐
评论