论文部分内容阅读
随着人工智能和深度学习的快速发展,图像语义分割日渐成为计算机视觉研究领域的热门问题,同时也逐步应用于医学图像分割领域。但是由于分割模型的不断复杂化,现有算法会过多地占用计算资源并且使模型参数存在巨大冗余;同时,由于医学图像中分割目标的大小、形状变化不一,存在正负样本分布不均衡等问题,现有的语义分割算法在处理一些医学图像分割任务时尚未达到较好的效果。上述原因使得设计一种高效、鲁棒的语义分割算法仍面临巨大的挑战。本文针对语义分割算法进行深入研究,并且在现有分割方法上做出了改进,提高了分割的精确度。文章的主要工作如下:
首先,分析了语义分割技术的国内外研究现状,对医学图像分割领域所要面临的难点进行剖析,阐述了图像语义分割算法的基本原理,以及对语义分割现有两种主流算法分别进行了详细阐述,并分析了全卷积神经网络、编码器-解码器结构和扩张卷积等主流语义分割网络结构的优缺点。
其次,针对目前语义分割网络依赖于多级级联的卷积神经网络提取感兴趣区域所导致过多和冗余地使用计算资源和模型参数问题,提出基于注意力机制的改进U-Net语义分割的特征提取方法,将注意力门控模块合并到标准U-Net模型中,着重显示通过跳过连接结构传递的高级特征,以避免对无关特征的重复提取。然后详细描述了方法流程、改进后的U-Net网络结构,通过实验对比,证明了改进方案的优越性。
然后,针对语义分割网络在小批次训练时所面临的批次归一化统计准确率下降问题,提出基于组归一化的deeplab v3+算法,在原有网络模型的基础上,将原有的批次归一化层调整为组归一化层,有效地平衡了训练所占内存资源与计算误差之间的矛盾,并加入Lovasz-softmax损失函数以适应更多场景下的语义分割问题。
最后,针对语义分割中标签数据类别失衡的问题,分析了常用损失函数对数据类别失衡问题的敏感性,选择应用泛化Dice损失函数,并将其结合到现有U-Net算法中,最后通过对比实验证明了该方法的优越性和鲁棒性。
首先,分析了语义分割技术的国内外研究现状,对医学图像分割领域所要面临的难点进行剖析,阐述了图像语义分割算法的基本原理,以及对语义分割现有两种主流算法分别进行了详细阐述,并分析了全卷积神经网络、编码器-解码器结构和扩张卷积等主流语义分割网络结构的优缺点。
其次,针对目前语义分割网络依赖于多级级联的卷积神经网络提取感兴趣区域所导致过多和冗余地使用计算资源和模型参数问题,提出基于注意力机制的改进U-Net语义分割的特征提取方法,将注意力门控模块合并到标准U-Net模型中,着重显示通过跳过连接结构传递的高级特征,以避免对无关特征的重复提取。然后详细描述了方法流程、改进后的U-Net网络结构,通过实验对比,证明了改进方案的优越性。
然后,针对语义分割网络在小批次训练时所面临的批次归一化统计准确率下降问题,提出基于组归一化的deeplab v3+算法,在原有网络模型的基础上,将原有的批次归一化层调整为组归一化层,有效地平衡了训练所占内存资源与计算误差之间的矛盾,并加入Lovasz-softmax损失函数以适应更多场景下的语义分割问题。
最后,针对语义分割中标签数据类别失衡的问题,分析了常用损失函数对数据类别失衡问题的敏感性,选择应用泛化Dice损失函数,并将其结合到现有U-Net算法中,最后通过对比实验证明了该方法的优越性和鲁棒性。