论文部分内容阅读
在复杂驾驶环境中具备实时准确的环境感知能力是先进驾驶辅助系统和自动驾驶的关键技术。由于视觉传感器获取信息丰富、价格低廉,大部分环境感知技术都基于视觉实现,但是在动态驾驶场景中,车辆自身的姿态变化和感知对象的动态变化都会对视觉感知算法带来影响。因此,如何充分利用视频流信息实现动态驾驶场景下的高精度车辆感知,成为了基于视觉的车辆感知算法的关键研究内容。本文以道路车辆为研究对象,以提高动态驾驶场景下车辆感知的精度和实时性为目标,开展了基于单目视觉的车辆测距算法相关研究。本文主要进行的研究工作内容如下:(1)构建Light-YOLO车辆检测网络模型。为了提高车辆检测算法在车载嵌入式平台上的运行速度,本文使用基于深度可分离卷积搭建的轻量化特征提取网络替换YOLOv3的骨干网络Darknet53,构建了Light-YOLO网络。进一步通过使用完全重叠度(Complete Intersection over Union,CIoU)改进损失函数、利用K-means++算法重新聚类网络锚框尺寸、改进非极大值抑制算法等方法,提高车辆检测框的位置预测精度。(2)提出基于时间域与空间域连续特征关联的车辆跟踪算法。为了关联视频流内的车辆目标信息,实现时空连续的车辆感知,本文在基于匀速运动模型的卡尔曼滤波车辆跟踪算法的基础上,提出融合IoU、马氏距离和颜色直方图的车辆特征关联算法,通过匈牙利算法实现车辆检测框和跟踪框之间的时间域与空间域连续匹配,减少车辆跟踪丢失、轨迹切换等问题,提高车辆跟踪的鲁棒性。(3)提出基于多维参考信息的车辆融合测距算法。为了降低摄像机姿态角变化和车辆检测框动态变化对测距算法的干扰,本文首先利用基于线段检测投票的快速消失点检测算法检测道路消失点,估计摄像机姿态角,并提出修正摄像机姿态角的几何测距模型。随后进一步提出多维信息参考融合测距算法,首先通过改进的几何测距模型进行测距,再使用测距结果计算被跟踪车辆的宽度,进而使用基于车宽的测距模型计算相对距离,最终实现基于车辆跟踪和不同参考信息的时空连续车辆测距。(4)搭建基于NVIDIA Jetson Xavier嵌入式开发板的实车实验平台,验证本文基于单目视觉的车辆检测、跟踪和融合测距算法在动态驾驶场景下的精度和运行效率。实验结果表明:相比于YOLOv3网络,Light-YOLO网络的平均检测精度和召回率分别降低了3.62%和4.3%,平均每帧计算时间减少了12.4ms;车辆跟踪算法相比于SORT跟踪算法,跟踪准确度MOTA提高了2.7%,跟踪轨迹切换次数减少了41%;修正摄像机姿态角的几何测距模型相对误差不超过6%,融合测距算法的测距结果更加稳定,平均运行速度可达每秒25帧,能够在车载嵌入式平台上实时运行,满足动态驾驶场景下车辆感知的需求。