论文部分内容阅读
在四足机器人跟随人行走过程中,获取机器人相对于人的距离和方向是实现跟随行走的关键。而距离和方向信息均可以通过机器人相对人的位置坐标得到。考虑到四足机器人自身金属架构与发动机声音大等情况,利用单目视觉实现人机相对定位是较为合适的。本文基于XC3SD3400A-4芯片搭建了四足机器人视觉定位系统,利用改进Harris算法提取特征信息,结合定位算法进行了视觉定位实验,验证了定位系统的有效性,最后通过位置坐标计算四足机器人相对于人的距离和方向。论文完成的主要工作如下:(1)对四足机器人的任务需求进行了描述,结合具体的坐标关系,给出了摄像机投影关系的数学表达式,并根据视觉定位目标设计了视觉定位方案。(2)针对Harris算法在光照变化条件下角点提取不稳定的情况,提出了定步长搜索以及边界二分策略提高了角点提取的稳定性。然后根据摄像机透视投影模型推导了视觉定位算法。最后结合惯性测量单元(IMU)角度数据,对定位算法进行校正并通过实验验证了算法的可行性。(3)根据四足机器人的定位需求构建了视觉定位系统,实现了第三章提出的图像处理和定位算法。通过部分模块在PC机和视觉定位平台下的时耗对比,说明了该视觉定位平台能够加快图像处理速度。(4)在深度和角度变化的情况下,利用视觉定位平台进行了定位实验。实验结果表明所搭建的视觉定位平台能够实现厘米级的定位精度,并通过公式获取了机器人相对距离和方向。