论文部分内容阅读
随着自动驾驶和高级辅助驾驶技术的快速发展,视觉环境下道路行车场景的交通对象检测不可或缺,对提高智能交通的智能化、安全性水平,实现安全、可靠、舒适的出行任务尤为重要。广泛且充分的感知车辆周围环境信息,获得道路交通对象的检测信息,提高道路出行安全,减少交通安全事故是当前智能交通领域研究的重要内容,并已成为这一领域学者研究和关注的热点。本文在充分调研国内外研究现状的基础上,围绕道路车辆环境感知需求,针对道路行车场景中交通对象检测存在的诸多问题,重点研究了不同视觉源下道路交通三要素(道路、车辆、行人)的分类检测方法。论文的主要研究工作及成果如下:针对大多数道路检测方法对光照变化、阴影敏感,而传统光照不变道路检测方法存在相机轴标定角度难以确定、道路样本采样失真等多重问题,提出了一种基于学习光照无关图的带阴影道路在线检测算法。首先,手工标定出道路图像序列的道路块和非道路块,利用多特征融合方法训练生成道路块SVM分类器;然后,将组合道路块RGB空间转换为几何均值对数色度空间,并根据Shannon熵确定每帧图像相机轴的标定角,以获取各自帧的光照无关图;最后,通过车前安全距离区域随机采样方法提取道路样本点,建立道路置信区间分类器,将道路从背景中分离出来。使用多个视频序列评估算法的有效性,实验结果表明,此方法可以得到高质量的道路检测结果,实现检测过程的实时性。针对现实交通环境中双目视差图匹配误差大、计算复杂度高,以及车辆等交通对象检测缺少必要的深度信息等问题,提出了一种基于单目深度估计和精细化U-V视图的路上车辆检测算法。使用加入边缘增强损失函数的单目深度估计模型得到原始视差图,并通过原始视差图的水平和垂直投影来定义初始的U和V视图;提出精细化U、V视图的道路感兴趣区域检测算法获得路上车辆感兴趣区域;提出道路区域平行扫描算法确定路上车辆或行人源点,使用邻间视差相似性算法对目标区域进行补全和提取,结合长宽比、透视比和面积比等多特征融合方法对提取的目标区域精确分割,获得路上车辆检测结果。实验结果表明,此方法实现了同一检测框架下路上车辆或行人的分类检测,满足路上车辆检测的时间有效性。针对可见光图像在夜间交通对象检测尤其是行人检测中失效以及现存的夜间行人检测方法准确率和实时性矛盾的问题,提出了一种基于快速显著性和多特征融合的夜间行人检测算法。使用一种红外图像行人目标显著性模型,实现夜间行人目标区域的快速获取;提出目标区域细化分离方法,去除感兴趣区域中可能存在的非行人区域粘连干扰,获得夜间行人候选边界框;使用多特征融合的夜间行人特征提取方法,结合SVM分类算法,实现对夜间行人的分类,并使用多个视频序列评估夜间行人分类检测算法的有效性。实验结果表明,此方法可以获得高质量的夜间行人的分类检测结果,满足道路场景的实时性要求。本文的研究工作可以实现异源视觉下道路行车场景中道路、车辆和行人等交通对象的分类检测,提供了一种道路行车场景的交通环境感知新模式,对助力提高道路交通车辆的行车安全具有一定意义,为构建基于视觉信息的道路环境感知系统提供了一种有效方法。