人工智能诊断COVID-19肺炎的可解释性

新知榜官方账号

2023-12-06 16:14:19

在COVID-19大流行的早期,人们竞相构建工具,尤其是AI工具来提供帮助。但研究人员并没有注意到许多人工智能模型已经决定走一些捷径。AI通过分析被标记为COVID-19阳性和阴性的X射线图片来训练模型,然后利用它们在图像之间发现的差异性来进行推断,但是在当时面临着一个问题,“可用的训练数据并不多。”多家医院公开了COVID-19患者的X射线照片(被标记为COVID-19阳性),美国国立卫生研究院在大流行之前收集的肺部图像库提供了未感染COVID-19的X射线数据(被标记为COVID-19阴性),这些数据在被用作训练时存在无法忽视的误作用。

机器学习模型的决策过程通常被学者称为黑匣子,因为研究人员通常只知道模型的输入和输出,但很难看到模型里面究竟发生了什么。DeGrave和Janizek使用旨在测试AI系统并解释它们为什么这样做的技术来打开这些黑盒子,即构建可解释的AI模型。构建可解释的AI(eXplainableAI,XAI)有很多优势,在医疗环境中,了解模型系统做出特定诊断的原因有助于让病理学家相信它是合法的,因为在某些情况下,法律要求做出解释。

然而,只有当XAI给出的解释本身是可理解和可验证的,并且构建模型的人认为这是值得的努力时,XAI的好处才能实现。DeGrave和Janizek研究的深度神经网络因其不可思议的能力而广受欢迎,因为它们能够通过曝光来了解照片中的内容、口语的含义等等。这些神经网络的工作方式与人脑相似,就像某些活性神经细胞响应外部刺激从而以某种模式发射一样。

解释AI内在工作原理有时看起来像是一项繁重的工作,以至于许多计算机科学家可能会想跳过它,并从表面上看待AI的结果。但至少某种程度的可解释性相对简单,例如,显着性图现在可以快速且廉价地生成,相比之下,训练和使用GAN更加复杂和耗时。

本页网址:https://www.xinzhibang.net/article_detail-22136.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 COVID-19 肺炎

分享至微信: 微信扫码阅读

相关工具

相关文章