论文部分内容阅读
在智能交通理念中,多相机系统一直充当智能车辆的“眼睛”,使其可以获取车身周边的场景信息。为了扩大视野,人们通常会在车载多相机系统中使用大视角的鱼眼相机来获取信息。为了使驾驶员能直观地接收信息,需要设计一个满足人眼视觉习惯的应用,而设计这一应用的前提,就要对车载多相机系统进行联合标定。联合标定的意义在于,一方面利用标定后的参数,对鱼眼相机的严重畸变进行校正,使其满足人眼的视觉习惯;另一方面,明确多相机系统中,各个相机的位置关系,为其下一步应用做好准备。本文首先介绍了传统基于标靶的车载多相机联合标定方法,该方法需要人为手持小尺寸标靶进行相机内参数和畸变系数的标定,之后再利用车身周边的大尺寸标靶进行外参数标定,耗时长,操作复杂。因此,本文提出了两种基于车载的多相机联合标定方法:1、提出一种新的基于标靶的车载多相机联合标定方法。在车身四周先铺好大尺寸标靶,利用汽车的可移动性,向前后各行驶一段距离,基于地面上大尺寸标靶中的特征信息来完成鱼眼相机内外参数和畸变系数的标定。本文详细介绍了算法流程,在本方法中,利用单应矩阵约束和非线性优化算法,完成鱼眼相机内参数和畸变系数的标定,然后研究了如何利用单应矩阵将单个相机获取的图像转换到顶视图中,并利用LK光流跟踪法,跟踪特征点,实现顶视图的拼接。最后,利用顶视图中大尺寸标靶存在的特征信息,实现了鱼眼相机相对于地面的外参数标定。2、提出一种基于自然场景的车载多相机联合标定方法。利用自然场景中存在的几何关系做约束条件,再利用优化算法进行优化,从而得到相机内参数和畸变系数。而在外参数的标定过程中,利用了ORB-SLAM算法对相机所获取的场景信息进行保存,并将得到的每个点的BRIEF描述子进行匹配,通过匹配后的对应点对,实现场景点云的粗配准,并利用ICP算法进行精确配准,从而获得多相机间的参数关系。通过上述两种方法,克服了传统多相机标定方法耗时长,操作复杂的缺点,降低了操作难度,提高了标定效率。根据实验结果可以看出,算法思路正确,结果可靠,可以在实际应用中进行使用。