论文部分内容阅读
全方位视觉(Omnidirectional Vision)是近几年被重点关注的视觉感知技术,该技术通过鱼眼镜头捕获一帧广角图像来获得三维空间中全部景物的图像信息(其中方位角可达360°,天顶角可达180°)。这种“全方位图像”的获取对系统结构和处理程序要求不高,能够很好地满足机器视觉应用的实用性要求。这种具有超大广角视野的全方位观测具有采集信息量大和观察范围广等特点,广泛应用在安防监控、管道探测、辅助驾驶、现场监测、车载巡检、飞行器制导及空间机器人等方面。尤其在移动机器人与自引导车导航和运动目标跟踪中,实时的全场景检测技术具有更重要的意义。
本文主要研究机器人自引导车在航标环境中对包括航标在内的目标的识别和跟踪,进而实现自引导车的自主定位和导航。在采用鱼眼镜头的机器人全方位视觉导航系统中,实现目标跟踪是导航的前提条件,而目标跟踪的主要任务就是把运动的被跟踪目标从连续的视频图像中准确快速地提取出来。但是由于在现实环境中,存在着大量的干扰因素,使得这一工作变得非常困难。特别是在现实环境中,不可避免的存在一些特殊情况,比如:被跟踪的目标移动出导航系统的视野后再现;被跟踪的目标被其他物体遮挡后再现;自引导车在行进过程中受到剧烈颠簸;被跟踪目标运动剧烈且极无规律等等。以上种种情况都会造成目标跟踪的失败,特别在光照变化的情况下这种现象更为严重,会对自引导车的导航造成严重的影响。
本文在充分分析了各种跟踪和滤波算法(如Mean Shift算法、CamShift算法、粒子滤波算法以及卡尔曼滤波算法)的基础上,根据当前的实验环境和研究项目要求,结合卡尔曼滤波对现有的CamShift算法做出了改进,提出了一种组合跟踪算法。在该算法中,卡尔曼滤波被用来预测和校正被跟踪目标的位置,改进型CamShift跟踪算法被用来根据目标的彩色信息特征搜索和跟踪目标。该算法可以解决在背景复杂且光照可变情况下的目标跟踪问题,同时能够解决目标运动状态剧烈变化及目标丢失后再现等情况下的目标跟踪问题。该算法具有较好的精确度、鲁棒性、抗干扰性,同时能够满足系统对视频图像处理的实时性要求。