论文部分内容阅读
视网膜血管自动化分割技术能够帮助医生更好的对人眼疾病进行定位,并提供客观准确的分析结果。由于眼底视网膜图像在采集过程中存在拍摄设备、拍摄角度、照明环境等的不同,导致图像存在整体趋于红色、血管与背景之间对比度低的问题。视网膜病变症状具有意想不到的颜色和形态,使分割血管与背景变得更加困难。很多研究人员基于不同技术对图像分割任务及存在的问题研究出了一些解决方案,但是已提出的方案仍然存在诸如准确率低、对毛细血管分割不精确、对病灶敏感等问题。针对眼底血管分割任务及现有方法存在的问题,本文设计了一个新颖的基于全卷积神经网络的视网膜血管自动分割框架,其中创新内容如下:(1)为了应对采集过程中拍摄设备、拍摄角度、光照条件等的不同和图像颜色对比度低的问题,本文探讨了用于视网膜图像预处理的四步预处理策略来降低这些问题带来的影响。这四步预处理策略依次是:灰度处理、归一化、对比度受限的自适应直方图均衡化和伽马非线性化。从图像处理结果来看,这四步策略能够提升图像中血管与背景之间的区分度,这可以更好地让模型学习到血管与背景之间的特征差异并进行精确分割。实验结果表明,这四步预处理策略能够有效提高模型在多个评估指标上的评估结果。(2)为了充分利用有限数量的视网膜图像,本文实验使用动态提取补丁算法来在循环训练中动态提取了小批量补丁,并提出了一种称为随机局部替换的新型数据增强方法,用以进一步利用有限视网膜图像来为训练模型提供更加充分的数据。实验结果表明,随机局部替换方法能够提升模型的分割性能,并在与常规数据增强算法相结合后获得更好的实验效果。(3)提出了两个基于全卷积神经网络的改进结构:第一个名为基线全卷积神经网络(Basic Fully Convolutional Neural Network,BFCN);第二个名为多尺度、多路径和多输出融合全卷积神经网络(Multi-scale,Multi-path,and Multi-output fusion Fully Convolutional Neural Network,M3FCN)。BFCN是针对视网膜图像分割任务而设计的,而M3FCN是针对BFCN的不足而改进后的模型。M3FCN通过构建多尺度输入层、多路径结构和多输出融合模块来得到优于BFCN的结构。M3FCN具有更深的网络结构,这增加了模型的容量,并且不同跳跃距离的跳过连接大大降低了训练模型的难度。通过对比实验验证可知,多尺度输入层、多路径结构和多输出融合模块均可以让M3FCN在分割任务中表现更佳。最后,使用三个在不同设备、不同采集条件下采集的视网膜图像数据集对本文提出的框架做了训练和测试。通过对F1分数、准确率等指标的结果进行对比后可知,M3FCN在DRIVE、STARE和CHASE这三个数据集上已达到具有竞争力的实验结果,其中F1分数分别为0.8321、0.8531和0.8243,准确率分别为0.9706、0.9777和0.9773。