论文部分内容阅读
前视图像匹配定位是一个具有挑战性的难题。由于图像中各点的深度变化很大,待定位两幅图像间的关系不能用简单的相似变换来表达,而是涉及到复杂的透视变换。同时考虑到两幅图像成像的视点未知,且成像时间不同,模板图像甚至是从下视图像生成的,损失了很多细节信息,场景图像与模板图像不会表现出完全相同的特征。当目标的三维模型已知时,给出了三维点集和二维点集的匹配定位算法。利用目标的三维数据信息,手动选择特征点,从而建立起关于目标的三维特征点模型;在待定位的二维场景图像中,自动寻找特征点。根据计算机视觉成像原理,利用三维点到二维点的投影关系,可以计算出摄像机相对世界坐标系的平移和旋转参数。该算法可以同时得到目标三维点与场景二维点的变换参数和对应关系。当目标的三维模型未知时,将目标及其周围的场景作为模板图像,给出了基于特征点相似度的匹配定位算法。首先分析了尺度变化和旋转变化对特征点的提取和描述带来的影响,然后在寻找特征点对应关系的过程中,定义了特征点匹配度量的准则,利用特征点相似度进行匹配,然后用极线约束去除错误的匹配点对,最后根据参数拟合的方式寻找图像间的变化参数并进行目标定位。实验表明该算法能够适应一定的尺度变化、旋转变化、部分遮挡,对于一定立体旋转角度变化具有一定的鲁棒性。基于特征点相似度的匹配定位方法仅仅考虑了极线约束,对特征点间的位置信息的利用并不完全。为了保持特征点间的位置信息,分析了松弛标记算法的原理,将特征点的相似度信息融入到松弛过程中,提出了基于松弛标记与特征点相似度的匹配定位算法。该算法不仅利用了模板图像的局部信息,还保持了模板图像的结构信息,实验证明相对于仅利用极线约束的算法,该算法能够找到更多的匹配点对。为了保持特征点间的位置信息,除了松弛标记算法以外,还可以应用信任度扩散算法。将特征点的相似度信息融入到消息传递过程中,提出了基于信任度扩散与特征点相似度的匹配定位算法。该算法在结合模板图像的局部信息的同时,还保持了模板图像的结构信息。实验表明相对于仅利用极线约束的算法,该算法能够找到更多的匹配点对。前述算法都是先计算特征点的匹配对再进行目标定位,而前视图像匹配定位的特点是不需要准确地找到模板图像特征点与场景图像特征点之间的对应关系,仅仅关心场景图像中模板图像所在的位置、尺度大小和旋转角度。将特征点的匹配过程与目标定位过程融合到一起,提出了基于均值漂移与投票的匹配定位算法。利用特征点的尺度、朝向和描述向量,构成一个一对多的匹配集合。对每个可能的匹配对,计算场景中模板图像的位置、尺度变化因子和旋转角度,构成一个4维的投票密度图,则密度最大的地方就是最后的定位结果。实验表明该算法鲁棒性更强。