论文部分内容阅读
三维深度相机在智能监控、汽车自动驾驶、无人机避障、三维场景重建及虚拟与增强现实等多个领域中有着广泛的应用。深度相机获取物体深度图像主要分为主动深度测量和被动深度测量两种方式,主动深度测量主要采用TOF(Time of flight)间接测距法,即通过发射可调制的红外光线,使用TOF面阵传感器接收反射回的光线,来实时获取场景的深度图像,此种方法获取的深度图像不受低纹理及重复纹理区域的影响,但对于高纹理区域的测量不是很敏感并且容易受环境光、被测物体材质、反射率的影响;被动深度测量一般采用双目立体视觉的技术,测量的深度图像不受高纹理、外界环境光的影响,但在低纹理、重复纹理及遮挡区域进行立体视觉匹配时容易出现误匹配,得到的深度图像效果较差。因此,如何结合现有技术来设计精度更高的三维深度相机成为了当前的研究热点。本研究通过对上述两种技术各自优缺点的深入分析,设计了一种有效融合TOF深度图和双目立体匹配深度图的算法。该算法首先通过对TOF深度图进行降噪处理来提高其置信度,然后将低分辨率的TOF深度图进行高分辨率还原,再映射到双目图像上进行最佳邻域匹配点计算的指导,以最终获取到高质量的深度视差图。本研究还基于以上算法设计了一套硬件装置,通过硬件方式加速来算法的实时运行。该装置采用Xilinx公司的Zynq-7000系列FPGA芯片为核心处理器,采用软硬件协同设计的思想来完成TOF深度图与双目深度图的融合,提高了三维深度相机的实时性和环境适应性。本文首先介绍了三维深度相机的应用背景和发展现状、TOF深度图像与双目立体视觉融合技术的研究现状,然后阐述并分析了TOF技术与双目立体视觉的原理及各自的优缺点,接着介绍了TOF深度图像与双目系统融合的算法原理,最后采用硬件加速来实现实时融合,对实验结果和数据进行分析,验证了该系统实现融合的创新性和优越性。