论文部分内容阅读
计算机断层扫描(Computerized Tomography,CT)以一种非侵入式的方式对人体内部进行检测,在临床实践和医疗诊断中得到了广泛的应用。但由于X射线照射对人体健康产生的威胁也引起了越来越多的关注,降低X射线剂量成为迫切需要。然而剂量的降低又使重建图像质量下降,影响临床诊断的准确性。如何在降低X射线辐射剂量的同时,保证重建出的图像不受噪声干扰,保持结构与细节清晰,一直是低剂量CT成像领域的研究难点与热点。本文从投影域数据恢复与图像后处理算法入手进行研究,主要创新工作如下: (1)提出一种基于改进的各向异性加权先验模型(Modified Anisotropic Diffusion Weighted Prior,MADWP)MAP投影域数据恢复算法。直觉模糊熵可以区分正弦图中的平坦区域和边缘区域,利用这一特点将其与传统的各向异性扩散系数相结合,构成新的各向异性扩散系数,并采用局部方差对正弦图进行自适应平滑,在平坦区域加大平滑力度,去除噪声,在边缘区域减弱平滑力度,保持结构信息。然后将其融合于基于Huber先验的最大后验概率(Maximum A Posteriori,MAP)优化估计模型中,实现对投影域数据的处理。最后采用滤波反投影重建算法(Filter Back Projection,FBP),重建出最终图像。通过对视觉与客观评价指标进行分析可得,所提算法能够明显提高图像质量。 (2)提出一种基于差异算子的形态分量分析(Difference-based Morphological Component Analysis,DMCA)低剂量CT图像后处理算法。该算法将低剂量CT图像中伪影和噪声抑制转化为图像分解问题。首先利用平稳小波变换(Stationary Wavelet Transform,SWT)获得图像的高频部分,使伪影抑制过程可在多尺度、多方向上进行。传统的形态分量分析(Morphological Component Analysis,MCA)算法在分解图像时使用固定的字典,该字典的选取依赖于经验,如何选取合适的字典也是非常具有挑战性的问题。针对这一问题,本文使用在线字典学习方法(Online Dictionary Learning)从高频子带中学习字典,利用结构原子与伪影原子之间的形态差异构造一个差异算子,以此来对字典进行分区重组。基于结构子字典,使用稀疏编码获得较为干净的高频图像,将其与低频图像结合,恢复伪影抑制后的图像。最后使用全变分(Total Variation,TV)滤波进一步去除图像中残留的噪声和伪影。实验中采用模拟图像和真实图像验证所提算法的有效性。视觉效果和客观评价指标均证明该算法不仅在噪声和伪影抑制上效果明显,在结构与细节信息的保持上也具有优于其他算法的表现。