论文部分内容阅读
鱼眼镜头具有超大视角(180。)的特点,利用较少的图像就可以覆盖整个三维空间,因此被广泛应用于视觉监控、机器人导航、虚拟现实等领域。这些应用的基础都是对图像进行特征点的提取和匹配,特征点的数量和匹配的正确率直接影响应用的好坏。由于鱼眼图像的畸变影响匹配效果,本文针对鱼眼图像畸变的特点,对鱼眼镜头模型以及图像特征点提取和匹配算法进行了深入的研究。本文首先对特征点的提取方法和描述方法做了一个详细综述,发现没有稳定的针对鱼眼图像的算法。对针孔孔模型下的算法直接应用于带有畸变的图像进行了讨论,分析了它们对于鱼眼图像的不适用性及原因。为了消除畸变影响,拟通过融合模型的方式设计针对于鱼眼图像的算法。然后,本文深入研究了鱼眼图像的成像模型。通过研究发现畸变引起图像尺度的不统一,因此本文设计了一种基于尺度变化和齐次坐标融合的鱼眼成像模型,结合张正友标定实现了具体的标定,通过实验验证了方法的可行性。它是本文算法改进的基础。接着,本文深入研究了特征点提取算法,通过尺度空间与平面热传导的关系以及鱼眼的成像过程,将平面推广至空间球面,推导出了球面高斯函数和尺度空间理论。另一方面,为了消除插值的影响,设计了基于像平面和球面高斯函数的卷积方法,它是一个具有自适应滤波性质的核函数与图像的卷积的过程,根据卷积的结果建立DoG空间和提取特征点。最后本文,基于建立的高斯尺度空间和DoG尺度空间,对特征点进行描述子的设计。改进了两个算法,第一,本文对D-Nets算法进行了基于模型的改进,验证了模型融合的必要性:第二,本文针对区域描述算法SIFT进行基于模型的改进。设计了梯度校正算法,基于梯度校正算法设计了融合模型的特征点的区域描述算法。根据特征点的描述子,实现了特征点的匹配,为了提高匹配正确率,设计了基于尺度变化的特征点去误匹配算法。