论文部分内容阅读
多种加权的核磁共振(Magnetic Resource,MR)图像能够为病情的精确诊断提供更多的参考,而核磁共振成像(Magnetic Resonance Imaging,MRI)在一次成像过程中只能实现一种加权方式,这不仅限制了病情的参考条件,也增加了患者在采集不同加权MR图像时的不适感和医疗开销。基于深度学习的医疗影像分析和计算机辅助诊断正逐渐成为医学精确诊断的解决方案,深度学习的出现解决了高维特征学习的难题。论文利用深度学习方法创新性地将T2加权的MR图像转换为质子密度(Proton Density,PD)加权,从而在一次MRI中获得多种加权的MR图像。论文的主要研究工作和贡献如下:(1)对MRI方法进行研究,从组织弛豫过程分析T2加权MR图像中包含的PD加权成分,为T2加权MR图像转换为PD加权提供了理论条件,并对深度学习方法进行研究,使得这种转换具备技术实现的条件。(2)提出了保留纹理的生成对抗网络(Preserving-Texture Generative Adversarial Networks,PTGAN),将改进的U-Net模型作为PTGAN的生成模型,并将深度卷积神经网络作为PTGAN的判别模型,通过生成模型和判别模型的对抗训练来实现T2和PD的加权转换。在改进的U-Net模型中,使用卷积层替换池化层来实现更高维的特征提取,增加批归一化层来减少数据差异,并进一步增加网络的深度。(3)将最小二乘损失作为PTGAN的基本损失来减小决策边界距离和提高模型训练的稳定性,并在生成模型中加入L2损失、频率损失和均方误差,从而在空间域和频域上确保转换过程中的结构纹理不变。利用多种数据扩充方式增加数据多样性,设计四种网络结构与PTGAN进行对比,并使用多种MR图像测试PTGAN模型。实验表明,PTGAN模型能够将T2加权图像转换为高质量的PD加权图像,转换的PD加权图像与采集的PD加权图像相比较,结构相似性达到0.971,峰值信噪比达到32.944dB。此外,在独立的CPU下每个转换过程达到48.4ms左右,而在独立的GPU下仅为4ms左右,可以在一次成像过程中快速地为疾病诊断提供更多的参考信息。