论文部分内容阅读
根据世界卫生组织国际癌症研究机构发布的全球最新癌症数据显示,乳腺癌的发病率超过肺癌,成为全球发病率最高的癌症。乳腺X线图像的计算机辅助诊断技术有助于乳腺癌的早期发现和准确诊断,尤其是随着深度学习的发展,卷积神经网络在图像识别、运动分析和医学诊断等众多领域都取得了显著的进展,结合深度学习的计算机辅助诊断技术取得了良好的效果。但是乳腺X线图像存在乳腺肿块的边界不清晰、肿块的轮廓和纹理细节单一,以及良恶性肿块的特征差异不大等问题,导致最终的分类效果不理想,因此本文通过改进Xception模型并提出特征融合模型来提高对乳腺钼靶图像良恶性分类的精度,主要研究内容如下:(1)在基于深度学习的乳腺钼靶图像分类任务中,一种思路是直接对乳腺X线图像进行分类,另一种思路是先在乳腺图像中提取肿块附近的感兴趣区域(Region of Interest,ROI)再对ROI图像进行分类。在对全图进行分类的任务中,由于乳腺肿块的区域仅占整幅图像的3%到5%的面积大小,直接对整幅图像训练分类可能会导致数据不平衡,分类效果容易受非肿块区域的胸肌、背景和标注等因素的影响;对ROI图像进行分类的任务中,虽然减少了非肿块区域对分类效果的影响,但是也损失了全图信息对分类预测的参考作用,并且ROI的标注过程耗时耗力,需要标注医生具有丰富的临床经验。本文分别对乳腺钼靶图像的全图和ROI图像的分类任务展开研究,进行对比实验分析。(2)基于卷积神经网络端到端实现乳腺钼靶图像的自动分类,选用CBIS-DDSM(Curated Breast Imaging Subset of DDSM)和MIAS(Mammographic Image Analysis Society)乳腺X线图像数据库进行训练实验,对乳腺钼靶图像做良性和恶性二分类研究。本文对Xception模型进行优化改进,并与常用于图像识别任务的经典模型Inception V3、Resnet50和Mobile Net V2进行实验对比分析。通过改进Xception模型中的残差连接模块的结构,来提高模型的特征提取能力,减少特征提取过程中的一些有用信息的丢失;为了使Xception模型可以自注意各个通道之间的关系,通过在深度可分离卷积层后嵌入压缩-激励注意力机制对模型进行改进,使模型可以自注意各通道信息的重要程度,突出重要的通道信息;最后,优化了该模型的全连接层分类器,缓解模型训练过程中出现的过拟合问题。结果显示本文提出的改进方法在只增加很少的参数数量和计算量的情况下,大大增加了模型对乳腺钼靶图像的分类性能。(3)为了互补乳腺钼靶图像和ROI图像的特征信息,提出了一个特征融合模型,实现融合两种图像的特征信息进行分类,最终取得了比单一图像分类更高的准确率。特征融合模型包含了两个并行的独立分支,使用两个结构相同的卷积神经网络模型分别对全图和ROI图像进行特征提取,然后融合提取两种图像的特征进行分类。