论文部分内容阅读
智能驾驶环境感知系统通过对相机、毫米波雷达及激光雷达等传感器获取的环境信息进行处理,得到周边物体与车辆的相对位置关系,为车辆路径规划、决策和控制提供重要依据。然而,在复杂多变的道路交通环境,激光雷达获取的点云数据缺乏稳定性,而相机获取的图像数据缺乏立体信息,使得三维目标检测一直难以取得理想的效果。研究准确且稳定的三维目标检测及跟踪算法实现对复杂环境中目标的精确定位具有重要意义。论文以道路交通环境下的车辆为研究对象,针对空间目标定位精度低的问题,通过改进二维目标检测网络Faster R-CNN,结合双目视觉,建立了一种三维目标检测网络;为减少误检与漏检现象的发生,将其与Kalman滤波相结合,提出了多目标在线跟踪算法,实现对车辆的精确识别与跟踪定位。论文主要工作如下:(1)搭建双目视觉系统。利用相机成像原理和双目视觉测距原理,选择合适的软硬件平台与双目相机,搭建双目视觉系统。采用张氏标定法对双目相机进行标定,确定相机内、外参数矩阵和畸变系数,并且根据标定结果对左右图像进行畸变矫正与水平校正。(2)建立中心点网络(Central Point Networks,CPNet)用于三维目标检测。根据空间车辆检测场景改进Faster R-CNN网络结构,针对远距离车辆检测难题,建立了一种基于多尺度输出的特征提取网络;针对空间车辆定位精度低的问题,构建了投影中心点回归分支,并提出了一种基于光度校正的三维目标框修正算法优化检测结果。最后,在KITTI数据集上训练和测试CPNet检测性能,并设置静态、动态车辆检测实验验证了CPNet在实际道路交通环境下的有效性与鲁棒性。(3)提出CPNet与Kalman滤波结合的多目标跟踪算法。将CPNet与Kalman滤波算法相结合,利用Kalman滤波的抗扰动特性来解决CPNet出现的误检与漏检问题,并通过优化跟踪策略与相似度指标,提升跟踪算法效率。分别在KITTI跟踪数据集和本地图像数据集上测试跟踪算法性能,试验结果表明跟踪算法能有效降低误检率与漏检率,且跟踪部分耗时占算法整体比例较小。