论文部分内容阅读
随着图像处理技术和深度学习算法的飞速发展,计算机视觉技术在生产生活领域中得到了广泛应用,如自动驾驶和视频智能监控等技术已经成为国内外研究热点。在一些工程领域中需要进行高空测距等工作,由于人工测距工作难度较大,危险系数较高,此时双目测距系统这种智能化视频监控便得到了广泛使用。双目图像匹配是作为计算机视觉的关键技术之一是实现双目测距的基础支撑,可以快速准确地判别物体类别和与相似物体建立视觉联系,分析两者的相似性和一致性从而获取更有意义的视觉关系信息,辅助计算机像人类一样去认知和理解物体。如何在匹配中克服光照、尺度和角度等变化,准确地建立图像间的视觉联系成为图像匹配技术的一大难题。双目测距系统是根据左右视差原理来实现固定目标物体的视觉测距目的,而传统的一些匹配算法无法非常准确的辨别不同物体之间非常相似的特征点,会由于匹配错误而影响双目测距结果,所以对双目图像进行特征点匹配的区域进行限定的基于深度学习YOLO(You Only Look Once)目标检测算法的双目图像匹配技术具有一定的应用和研究价值。论文首先深入研究了双目图像特征点匹配原理,详细描述了不同双目图像匹配技术的图像特征点提取原理,包括特征点的位置确定和方向确定算法。通过系统仿真验证基于特征点的图像匹配算法性能,比较了它们之间的优缺点及改进之处。并且介绍了目前主流的深度学习目标检测算法,对不同算法的性能进行了对比。然后本文制作了符合YOLO v3算法训练的用的双目图像数据集。数据集主要采用KITTI和双目摄像头自采集图像两部分双目图像数据,通过LabelImage软件对图像中的特定目标如汽车、自行车以及人等进行标注,标注信息会包含在一个.xml文件中,包含了双目图像中不同物体的位置信息和类别信息。为了更好地分析双目图像中不同目标物体的特点,加快网络收敛和更好地通过候选框预测目标框,本文使用K-means算法对本文使用的双目图像数据集进行聚类分析,得到更符合双目图像中目标宽高比的候选框。接着针对包含较小目标的双目图像,小目标物体特征信息包含在大尺度特征图中,在多尺度预测时,浅层网络提取特征传入深层网络时会出现大尺度特征图中小目标物体的特征信息丢失问题,改进YOLO v3卷积神经网络模型,在提取图像特征信息使用更多尺度信息的融合,可以更好的识别较小目标物体,降低小目标物体漏检率。最后,本文研究了基于深度学习目标检测算法的双目图像匹配方法,为解决在双目图像匹配时出现不同物体之间相似特征点的错误匹配问题,以及结合Fast R-CNN等目标检测算法的双目图像匹配速度较慢的问题,提出了一种将ORB算法与YOLO目标检测算法结合的改进双目图像匹配算法。通过卷积神经网络提取图像特征,根据得到的目标框位置信息和多标签分类的类别信息,对进行双目图像进行特征点匹配的区域进行限定,实现一种结合目标检测的双目图像ORB匹配,仿真结果表明,该方法在单目标、双目标和多目标双目图像中的匹配准确率相较传统ORB匹配算法都有所提升,该匹配方法具有可行性和较好的鲁棒性。