论文部分内容阅读
计算机视觉技术在无人机智能化发展中占有重要地位,无人机在飞行中可以利用视觉传感器检测并追踪运动物体,从而引导无人机跟随运动物体运动,在此过程中无人机同时可以完成基于视觉的自定位。本文重点研究了基于视觉的无人机运动物体引导和自定位技术,其中无人机运动物体引导技术包括基于DSP(digital signal processor)的运动物体检测和追踪技术,无人机自定位技术主要研究了基于单目相机的利用点和直线信息的视觉定位技术。本文主要工作如下:
(1)本文研究了适合应用在DSP平台上的运动物体检测算法,在DSP平台上对混合高斯背景建模算法进行了实验验证,利用VLIB(Vision Library)函数库完成了连通域检测以及相邻连通域的合并,最后得到运动物体的质心坐标。
(2)本文研究了计算速度较快且具有部分抗遮挡性的时空间上下文算法,在原算法的基础上使用卡尔曼滤波预测物体的运动轨迹,在判断原算法追踪失败时对追踪结果进行修正,从而可以克服干扰物对追踪物体的短时完全遮挡,通过帧间图像的直方图匹配修正原算法的尺度因子,通过计算归一化互相关系数自适应地调节原算法固定不变的模板更新速率,最终提高了算法的抗遮挡性和鲁棒性。从DSP的硬件和软件层面对算法进行了优化和加速,使算法在DSP平台上的运行速率从9.8fps提升到了32.5fps,最终达到了指标要求的30fps的运行速率。
(3)本文对于视觉定位中的核心问题N点透视算法,提出了基于扩展正交迭代的快速加权的相机位姿估计算法,算法可以充分利用图像中的特征点和直线信息,并根据计算初值的深度信息和重投影误差对特征点和直线信息赋予不同的权值,通过使用克罗内克运算将算法每次迭代计算的时间复杂度从O(n)降低到了O(1)。实验表明算法将旋转矩阵和平移向量的计算误差分别降低了46.20%和45.24%,将计算时间减少了52.89%。
(4)本文研究了基于点和直线的无人机视觉定位算法,算法利用图像中的点和直线信息,使用对极几何初始化无人机位姿,利用基于扩展正交迭代的快速加权的相机位姿估算法计算无人机位姿,以特征点和直线的重投影误差为目标函数对无人机位姿进行优化。实验结果显示本文所使用的视觉定位算法在无人机16m短距离起飞试验中的平均误差为0.2088m,运行帧率为20.02fps,在140m的长距离平稳飞行实验中平均误差为0.4263m,运行帧率为19.80fps。
(1)本文研究了适合应用在DSP平台上的运动物体检测算法,在DSP平台上对混合高斯背景建模算法进行了实验验证,利用VLIB(Vision Library)函数库完成了连通域检测以及相邻连通域的合并,最后得到运动物体的质心坐标。
(2)本文研究了计算速度较快且具有部分抗遮挡性的时空间上下文算法,在原算法的基础上使用卡尔曼滤波预测物体的运动轨迹,在判断原算法追踪失败时对追踪结果进行修正,从而可以克服干扰物对追踪物体的短时完全遮挡,通过帧间图像的直方图匹配修正原算法的尺度因子,通过计算归一化互相关系数自适应地调节原算法固定不变的模板更新速率,最终提高了算法的抗遮挡性和鲁棒性。从DSP的硬件和软件层面对算法进行了优化和加速,使算法在DSP平台上的运行速率从9.8fps提升到了32.5fps,最终达到了指标要求的30fps的运行速率。
(3)本文对于视觉定位中的核心问题N点透视算法,提出了基于扩展正交迭代的快速加权的相机位姿估计算法,算法可以充分利用图像中的特征点和直线信息,并根据计算初值的深度信息和重投影误差对特征点和直线信息赋予不同的权值,通过使用克罗内克运算将算法每次迭代计算的时间复杂度从O(n)降低到了O(1)。实验表明算法将旋转矩阵和平移向量的计算误差分别降低了46.20%和45.24%,将计算时间减少了52.89%。
(4)本文研究了基于点和直线的无人机视觉定位算法,算法利用图像中的点和直线信息,使用对极几何初始化无人机位姿,利用基于扩展正交迭代的快速加权的相机位姿估算法计算无人机位姿,以特征点和直线的重投影误差为目标函数对无人机位姿进行优化。实验结果显示本文所使用的视觉定位算法在无人机16m短距离起飞试验中的平均误差为0.2088m,运行帧率为20.02fps,在140m的长距离平稳飞行实验中平均误差为0.4263m,运行帧率为19.80fps。