论文部分内容阅读
当今,随着无人驾驶领域的发展,无人驾驶的安全性问题一直作为研究重点。在无人驾驶车辆智能化行驶过程中,为避免车辆对道路中的行人安全造成威胁,无人驾驶车辆必须感知到车辆周围环境中的行人目标,并能够获取到实时、可靠的行人目标状态信息,以提前做好预判。此外,在实现行人检测和跟踪过程中,往往需要对行人进行特征信息表达。针对此现状,本文面向无人驾驶环境,对行人目标检测、行人目标跟踪以及特征表达等方面展开研究。本文采用了基于检测的多行人目标跟踪框架。在行人目标检测方面,本文将MobileNet与深度卷积神经网络(Mask Region with Convolutional Neural Networks,Mask RCNN)结合,构建了基于MobileNet的Mask RCNN模型来完成图像中的行人目标识别。在此基础上,为提升检测的精确度,本文对检测网络中的非极大值抑制方法利用软极大值抑制的方法进行替换。在微软提供的数据集(Microsoft COCO,MS COCO)上测试验证表明,最终改进的Mask RCNN模型在检测精确度上与原Mask RCNN模型持平,但在处理速度上相较于后者提升了约20%。在行人目标跟踪方面,本文选用匈牙利匹配算法,从行人的外观特征和运动特征两个角度来构建匹配代价矩阵,完成连续上下帧图片中的行人目标之间的匹配后,并通过卡尔曼滤波算法预测目标在下一帧图片中出现的位置。此外,在跟踪过程中行人特征表达的构建方面,本文考虑到深度学习在特征表达上相较传统的人工设计特征有着突出优势,但运用深度学习的方法存在运算时间长、复杂度高等缺点。因此,本文采用了深度特征共享的方法,直接利用Mask RCNN检测网络中输入全连层的1024维特征作为跟踪过程中的行人外观特征之一,并融合行人运动过程中较为稳定的颜色直方图特征,作为最终的外观特征。在多目标跟踪数据集(Multi Object Tracking,MOT)中的MOT16上仿真验证表明了本文方法的可行性。并在此基础上,调整行人外观特征匹配度和运动特征匹配度的权重,最终实现了当外观特征匹配度比重设置为0.8时,多目标跟踪准确度(Multiple Object Tracking Accuracy,MOTA)为34.3%,多目标跟踪精确度(Multiple Object Tracking Precision,MOTP)为79.3%。相较参考模型而言,MOTA提高了5.3%,MOTP提高了0.5%。