智慧医疗实验室
通用链接 English 手机版
新闻资讯

IEEE TMI 发表顾然的研究成果:可解释图像分割网络

发布时间:2020-11-03 点击次数:

  11月2日,医学影像分析领域顶级期刊IEEE Transactions on Medical Imaging (影响因子6.69)发表了本实验室博士生顾然同学在深度学习的可解释性方面的工作“CA-Net: Comprehensive Attention Convolutional Neural Networks for Explainable Medical Image Segmentation”。该工作针对基于深度神经网络的医学图像自动分割算法,提出了一种综合注意力方法,利用注意力机制在图像的空间位置、特征通道及尺度等多个维度计算对目标结构的关注度,提高网络在自动分割任务上的自适应能力,同时使神经网络的预测过程具备了很强的可解释性。

   

  基于深度学习的方法因为在图像处理上优越表现而受到广泛的关注,近年来在图像识别、人工智能领域不断取得了性能突破。但是由于缺乏决策过程及结果的可解释性,模型的输入与输出之间的操作常被认为是黑箱操作,从而使深度学习在实际应用中的可靠性受到质疑。在医学诊断领域,人工智能模型的可解释性尤为重要,确保深度学习模型的决策过程能够被医生理解,具有合理的决策支持,是其在临床诊断中放心使用的重要前提。

   

 基于这个问题,本文提出一种综合的注意力方法,在现有的医学图像自动分割神经网络中,该方法能够有效提升网络在空间位置,特征通道,特征尺度等维度上对分割目标的关注度,同时抑制与目标分割任务不相关的特征信息。实验表明,通过引入综合注意力方法,在训练的过程中,可使网络逐渐关注到与分割目标最相关的多维度信息,能够显著提高网络对目标分割任务的自适应能力。同时,在对网络中间层的注意力权值的可视化和统计过程中,可以很好地解释网络每一层关注的特征信息,从而方便人们理解网络决策过程的依据。

   

 本研究成果由电子科技大学与伦敦国王学院、伦敦大学学院、鲁汶大学、商汤科技等单位合作完成。第一作者顾然同学是本实验室首名博士生,本论文也是他取得的首项研究成果。

 

 论文网址:https://ieeexplore.ieee.org/document/9246575

 项目代码:https://github.com/HiLab-git/CA-Net