论文部分内容阅读
本文以大场景中物体三维测量为目的,构建了基于动态对焦驱动的双目被动立体视觉系统,对视觉系统中的相机标定和多视数据拼接展开了深入研究。 本文的主要工作如下: 通过在镜头对焦环上加装角度传感器的方式,间接获取对焦距离,提出一种基于动态对焦过程的参数化相机模型,实现了任意对焦状态和距离下相机内参数求解,为整个视觉空间建立起与之对应的三维内参场。为了降低算法的复杂性,进而设计了一种基于三平面立体靶标的标定方法,理论上,只需对该靶标进行两次不同距离采样即可完成整个标定过程,与传统模型相比,基本没有增加额外约束条件,可操作性强。 提出一种基于一维辅助靶标的大场景双目拼接方法,该方法引入的是全局误差控制手段,拼接过程不依靠相邻单元数据重叠部分,从原理上克服现有基于图像重叠部分拼接方法的误差累积和传递问题。另外,由于相机景深限制,为了对空间中不同距离的物体进行测量时都能得到清晰采样图,采用动态对焦的相机模型,提出一种基于平面靶标的立体视觉标定方法。实验数据表明,采用基于一维辅助靶标的动态对焦双目拼接方法在提高测量精度的同时,很大程度上避免了立体视觉的局限性,适合三维测量,导航技术等领域的应用。