论文部分内容阅读
随着无人驾驶、机器人等人工智能应用的发展,目标检测技术发挥着越来越重要的作用。针对现有的目标检测技术检测准确率低、检测速度慢等问题,本文提出基于双目立体视觉的目标检测关键技术研究。主要内容及取得的创新性成果如下:(1)通过对目标检测系统基本框架和各个模块涉及到的相关算法的分析和总结,提出以基于候选区域生成算法的CNN分类器实现为主线展开研究。传统的目标检测算法大多采用滑动窗口与人工提取特征相结合的方案。滑动窗口算法对图片的每一个位置和尺度进行扫描,限制了系统的检测速度,而人工提取特征的好坏直接影响着目标检测系统的性能。(2)针对现有的候选区域生成算法性能不佳的问题,提出利用贝叶斯融合对算法加以改进,达到用尽可能少的候选框包含尽可能多的目标的目的。实现方法大致分为三步:首先,通过传统候选区域生成算法生成大量的候选框;其次,对每一个候选框提取几何特征和与深度信息相关的特征;最后,利用贝叶斯公式对特征进行融合,并计算每个候选框被判定为正样本的概率,以此作为候选框的得分,依据得分即可筛选出一定数量的候选框。(3)针对深度信息及地面估计所带来的计算误差对算法性能的影响,本文对所有人工标注的矩形框提取相关特征并统计其直方分布,发现目标的实际尺寸及目标距离地面的高度这两个特征符合正态分布,提出先使用MLE对这两个特征进行预处理,再使用贝叶斯对其融合。(4)研究基于深度学习的目标检测系统实现。以Fast R-CNN为基本框架,使用改进后的候选区域生成算法生成一定数量的候选框,每幅图片提取1000个得分最高的候选框作为RoI Pooling层的前端输入,再对候选框进行分类和边界回归,实现了基于候选区域生成算法和深度学习的目标检测系统。通过实验对比分析,经过改进后的系统,其检测准确率得到了极大提高,平均提高15%以上,验证了本方案的有效性。