利用深度学习伪造医学图像并不困难

来源:硅谷密探 | 2019-04-29 09:14:47 |

深度学习被誉为一个革命性的工具,在放射学支持更快、更准确、更详细的临床建议。

几乎每天研究人员都会发布新的研究结果,显示人工智能有可能帮助人类工作,其中许多模型已经达到或者超过了训练有素的医生的能力。

但是,如果好奇的研究人员或者图谋不轨的人把这些成果用来对付他们应该帮助的临床医生,那该怎么办?

利用深度学习伪造医学图像并不困难

以色列一个研究小组的一项新研究表明,利用深度学习来伪造癌症肿瘤的医学图像,并在大多数情况下能够很轻松的骗过即使是最好的放射科医生。

这个团队解释了如何成功地渗透到一个典型的医疗系统的PACS(影像归档和通信系统)中,并使用一种叫做生成对抗性网络(GAN)的机器学习的恶意软件来改变MRI或CT扫描图像,从而让正常人的图像中出现肿瘤或者让癌症病人的图像中移除真正的癌症。

这些在政治和社会领域日益受到关注的“Deep fake”可能会对患者的治疗结果产生重大影响。

研究小组解释说:“由于3D医学扫描成像是医生判断患者病情的强有力证据,因此能够对扫描进行攻击的黑客将有能力改变病人的诊断结果。”

例如,黑客可以增加或消除动脉瘤、心脏病、血栓、关节炎、软骨问题、脑、心脏等其他癌症证据。

进行这种攻击有很多动机,研究人员表示,黑客可能希望通过严肃的健康诊断来影响选举结果或推翻政治人物,甚至他们可能会更大规模地改变医疗图像,并持有原始数据以索取赎金。

个人可以利用这些策略进行保险欺诈或隐瞒谋杀,研究人员或药物研发人员可以伪造他们的数据来获得想要的结果。

研究小组指出,数百个常用的PACS系统都有不安全的网络连接,可以提供一个简单的攻击载体,医疗保健黑客的创造力似乎是无止尽的。

恶意伪造数据后果重大

研究人员使用一台低于50美元的普通电脑Raspberry Pi对一家真实医院的系统进行了模拟攻击。

“Pi 配置了一个usb到以太网适配器,并配置为无源网桥(没有网络标识符) ,”研究小组说。 “Pi 还被配置为一个用于后门访问的隐藏 Wi-Fi 接入点。”

“我们还打印了CT扫描仪制造商的3D 标志,并把它粘在圆周率仪上,使它不那么引人注目。”

虽然参与的医院完全了解该小组的活动并同意进行试验,但是医院还是被这种低成本的巨大破幻力感到吃惊。医疗保健组织对黑客实际安装硬件并进入网络的方便程度感到担忧。

同样令人担忧的是深度学习模型所产生的的图像的真实性。即使放射科医生知道图像可能已经被改变,他们也很难辨认出图像哪里被改变了。

当三位经验丰富的临床医生没有被告知他们看到的是“伪造”的肺癌肿瘤图像时,他们99%认为这是癌症。

“当被问及这个问题时,除了放射科医生注意到一个移除区域有一些异常外,其他两位医生没有发生任何异常。”研究小组说道。

放射科医生也确信这种“伪造”的图像是非常严重的。

“至于伪造的癌症,放射科医生的共识是,三分之一医生表示需要立即进行手术,所有医生表示都需要后续治疗。”

对于消除了真实肿瘤的图像,94%的放射科医生没有发现任何问题。即使放射科医生被警告说有些图像可能被改变,但是他们仍然会犯错误。临床医生没有注意到他们看到的肿瘤有61%是假的,87%的医生没有发现真实的肿瘤已经被消除。

此外,参与的放射科医生对于他们的决定并不是很有信心。当被问及他们是否确诊了真假癌症时,所有的临床医生都表现出了严重的怀疑。

这种方法甚至100%愚弄了一个基于人工智能的临床决策支持工具。这让那些人工智能的支持者感到震惊,但是他们相信人工智能可以更有效地发现人为错误,并提高决策的准确性。

保护医疗数据刻不容缓

随着人工智能变得越来越复杂、医疗系统中勒索软件攻击和数据泄露事件的增加,这些卑鄙的、创新性的威胁可能会变得越来越普遍。

公司和组织不得不小心翼翼地保护他们的基础设施,并付出极大的代价来帮助人们如何在一个深度学习可以用来篡改几乎任何东西的世界中辨别真相。

“这篇论文就是想告诉人们一个事实,并警醒他们:如果人类专家和先进的人工智能完全相信他们的观察结果,他们就有可能被愚弄。”研究小组继续说道,“我们希望这篇论文和补充的数据能够帮助产业界和学术界应对这一新出现的威胁。”

关键词: 深度学习 伪造医学图像