论文部分内容阅读
乳腺癌是全球女性中最常见的恶性肿瘤,在全世界女性恶性肿瘤中发病率第一,致死率第二。对女性群体开展乳腺癌筛查工作,在早期发现疾病进行治疗,可以降低乳腺癌的死亡率。乳腺钼靶X光照影由于对微钙化点和小型肿块的高敏感度,是乳腺癌早期筛查的首要方法。然而,即使组织专业的影像科医生在进行乳腺X光阅片,也经常面临诊断主观性大,假阳性率高,以及忽略小型病灶等问题。随着深度学习技术的飞速发展,基于深度学习的钼靶X光计算机辅助诊断(CAD)成为了一项研究热点。然而,现有的基于深度学习的CAD算法普遍存在三个问题:第一,基于目标检测模型的CAD算法精度高,可解释性好,但是需要专业医生对图像进行病灶标注,这个过程非常昂贵且不能适应于飞速增长的数据量;第二,基于全图分类的CAD模型只需要图像级标签进行训练,训练数据容易获得,但是准确度低且诊断结果解释性差;第三,目前大多数模型基于单张图像训练,不能有效利用钼靶X光乳腺照影中多个视图的信息。针对以上问题,从以下三个方面展开研究:本文提出导致乳腺癌全图分类准确率不高的主要原因是病灶在图中占比极小,一般分类模型的输出取决于全图,不能有效的学习局部病灶特征。针对该问题本文提出将注意力机制运用于乳腺癌全图分类中,使用注意力机制减小图中背景无关特征,同时增强重要特征对分类结果的影响;将注意力机制多次运用于网络中不同尺度的特征图,有效提高分类准确率;同时提出在训练过程中对不同尺度的特征图都输出判断结果用于计算损失,并以不同权重累加到总损失中,一方面有利于底层特征的学习,一方面抑制算法过拟合问题,能一定程度上提高准确率。最后经过实验验证,本文提出的方法相比于原本分类诊断,在AUC指标上能带来明显提升,且通过类激活图验证,本文的提出的注意力机制可以更好定位病灶。乳腺癌筛查过程中通常左右乳各拍摄不同视角两张图像,即对每一病例共含有4张图像,合理利用不同视角图像进行诊断能在准确率上带来有效提升。针对该问题,本文提出基于注意力机制的多视图信息融合方法。文中首先提出在左右图像上具有很强的空间对应关系,在同乳房不同视角图像上带有的病灶具有一致性。针对该特点,将左右对应图像通过空间信息融合分支得到空间上的注意力权重,同乳房不同视角图像通过特征信息融合分支得到通道维度上的注意力权重。之后将两个注意力权重广播后相乘,得到与原特征图尺寸相同的权重图,该图与原特征图每一特征点相对应,相乘后输出,即改变原特征图每一特征对后续判断的影响。最后在实验中,分析已有特征融合方式存在的缺陷,并与本文提出的方式进行实验对比,实验结果表明本文提出的特征融合方法达到了最高的分类准确率。最后通过类激活图在原图上显示激活区域,本文提出的特征融合方法相比原有分类算法,更注重病灶区域且能抑制背景区域对结果影响,以达到更准确的预测结果。最后,以实际辅助医生进行诊断为目的,提高诊断效率和诊断准确率。本文基于深度学习检测算法实现医生端辅助诊断系统。在检测算法上本文使用YOLO v3,一步走检测算法提高诊断效率,并且减小设备要求,使辅助诊断系统能在较低配置的设备上流畅运行。同时针对乳腺癌前景少而小的特性,对损失函数进行改进很大程度上减小类间不均衡对诊断结果的影响。系统使用Flask框架进行实现,该框架同样基于python实现,所以可以很方便地将训练得到的YOLO v3检测模型嵌入系统中。最终实现的乳腺癌辅助诊断系统能直接有效地改善乳腺癌筛查效率和准确率。