论文部分内容阅读
全景立体球视觉模型是选取光轴互相垂直的四只鱼眼镜头相机构建的,它能够观测全球域的图像。鱼眼镜头具有大视场优点的同时也具有成像畸变大的缺点,特别在边缘区域更为严重,在光轴正交或大视场的立体视觉系统中,对图像进行特征匹配具有一定难度。目前,鱼眼图像的匹配步骤是先对图像实现矫正的处理,再完成特征点的获取以及配对。此方法一般会造成图像信息损失,增大误匹配。因此,本论文直接对未经畸变矫正鱼眼图像进行处理。主要研究内容包括:(1)本论文选择MSCR和ASIFT联合的特征描述子实现了对未通过矫正处理的鱼眼图像之间的立体匹配。MSCR算法检测到的稳定区域比较规整,全局效果清楚明亮,更有利于特征区域匹配。通过MSER算法与MSCR算法在未通过矫正处理的鱼眼图像之间配准中的匹配效果进行对比与分析,结果证明MSCR算子完成匹配时的效果较好,获取的点对数目相对而言更多,其错误配对数目更少。ASIFT不只是继承了SIFT的尺度、转动和水平偏移的固定性,还能够实现完全仿射不变。对ASIFT算子的性能进行客观的评价与分析,发现它可以检测到远多于其它算法的特征点。(2)实现立体匹配的策略为:首先选择一组实验设备完成对鱼眼图像的采集,而后把需要完成立体匹配处理的图像对中的一个图像判定为固定不变的图像,余下的是与之相对应的图像;而后,在固定不变的图像中选择一个点A,同时选择与之相对应图像中包括A的对应点的一个范围DR,将A当作中心点构造一个保持不变的区域R(A),然后把这个区域进行拟合,使之成为椭圆。接着,以R(A)的区域面积的大小对其对应的DR区域划分成为小块;而后选取ASIFT对区域R(A)和划分所得到的小块一一描述,可以获取该特征的一维描述;最后,选择对直方图的相似性进行对比可以获得图像匹配的结果。(3)本论文对图像的特征征点的获取实验以及立体匹配的实现均在MATLAB R2013b平台上进行。通过实验验证,本论文所采用的算法能够检测到更多的匹配点对数,且匹配质量较好,误匹配率更低,可以应用于未经畸变矫正鱼眼图像的立体匹配中,为具有超大畸变和视觉角度的图像间的立体匹配提供了可行的方法,同时也对图像后续的一系列的处理过程起到了一定的铺垫作用。