论文部分内容阅读
乳腺癌病理图像癌区域检测是辅助医生进行病理诊断的基础,它的目标是利用计算机技术自动检测和定位病理切片图像中的癌区域。相比于传统病理图像分析方法,近年来基于深度学习的病理图像分析取得了更好的效果,可以识别乳腺病理切片中的有癌切片,并提供癌区域的粗略位置。但现有方法存在一些不足,如检测结果不够精细、检测效率低、识别癌种单一。针对上述问题,本文对基于深度学习的乳腺癌病理图像癌区域分割方法展开了研究,取得成果如下: (1)提出了基于全卷积网络的癌区域精细化分割方法 由于数字病理切片图像包含百亿级的像素,现有基于深度学习的癌区域检测方法大多利用正方形的小图像patch训练分类模型,只能获得癌区域的粗略定位。本文提出了一种基于全卷积网络模型Res-DCNN的癌区域精细化分割方法,采用基于残差网络Resnet框架的DCNN语义分割模型进行癌区域精细化分割,能获得原始切片图像1/8大小的稠密预测输出,提升了现有方法的精细度。另外,针对现有方法在小patch图上训练模型,丢失大量上下文信息的问题,本文基于不同大小的patch图像训练Res-DCNN语义分割模型,实验结果表明,更大的patch图像包含更多上下文信息,取得了更好的分割效果。 (2)提出了基于分类预筛及语义分割的癌区域快速分割方法 实际诊断中,大量病理切片图像是正常切片,而且有癌切片中也存在大量非癌组织和区域,不加区分的进行像素级的精细化语义分割非常耗时。本文提出了一种基于分类预筛及语义分割的癌区域快速分割方法,首先利用简化的Inception-v3分类模型对癌区域进行快速筛选,再利用Res-DCNN语义分割模型对候选癌区域进行精细化分割。实验结果表明,与单一的Res-DCNN语义分割模型相比,每张病理切片平均减少了约85%的处理时间,从平均耗时79min/slide下降到11.5min/slide,切片处理效率提高了约7倍。 (3)提出了基于全卷积网络的乳腺癌病理切片分类方法 目前带有详细标注的病理切片数据十分匮乏,现有方法大多在单一的癌种上开展研究,针对乳腺癌中某一类型进行癌与非癌的分类。本文基于湘雅医院提供的原位癌和浸润性癌数据集,提出了一个基于全卷积网络的乳腺癌病理切片分类方法,实现了正常组织、原位癌和浸润性癌的三分类。实验结果表明,本文提出的方法可以有效地区分原位癌和浸润性癌。 基于上述研究,本文还实现了一个基于病理切片图像的癌区域辅助标注系统,为病理医生提供自动生成的癌区域轮廓,大大提高了病理医生的标注效率。该思想和系统有助于快速构建大规模病理图像标注数据集,促进人工智能在病理切片图像分析领域的快速发展和实际应用。