论文部分内容阅读
基于机器视觉的目标识别是一门复杂的学科,结合了数字图像处理、模式识别、机器人理论等学科,现已充分融入到了工业自动化、军事、国防以及医疗等领域。由于基于移动机器人的目标识别是建立在机器人室内和室外导航、机器人路径规划、机器人地图构建等的基础,因此,受到了国内外学者广泛的关注。经过几十年来,国内外学者不断的努力,目标识别已经获得了巨大的成果。但是,因为基于移动机器人的目标识别所应用的环境会有光照、遮挡、阴影等的情况,并且待识别的目标本身会有多种变化。由于目标本身的多变性以及环境的复杂程度则对目标的识别的结果造成了极大地影响。根据识别目标的分类,又可分为动态目标识别以及静态目标识别。本文结合学术前沿的知识,对动态多目标识别以及场景目标识别等问题,提出了新的算法,提高了识别的准确性和鲁棒性。最后还应用到移动机器人平台上,较好的准确性与实时性验证了本文的算法。本文所采用的测试视频以及样本图像均为作者本人在杭州电子科技大学中使用机器人采集的。本文的对目标识别的研究主要有以下几个方面:(1)目标分割是动态多目标识别的重要步骤之一。本文将两帧帧差法、三帧帧差法、高斯混合建模对动态目标进行分割并比较。两帧差分法就是将视频采集到的序列图像的相邻两帧图像进行差分。三帧帧差法将采集到的序列图像前后三针图像进行差分。高斯混合模型是以像素为单位,使用高斯模型计算像素在时间轴上的变化。对这三种方法实验对比,由于分割出的运动目标轮廓的完整性以及实时性的考虑,最终确定使用两帧帧差法。(2)本文提出了基于视觉的动态多目标识别将基于LBP特征与基于Gabor特征的动态多目标识别,最后根据性能评价指标得出,基于Gabor特征的动态多目标识别更具有优势。该方法首先根据前后帧之间像素的变化,分割出运动目标。对分出出来的运动目标和样本图像,使用Gabor滤波器提取图像的特征,得到特征向量。最后使用Fisher判别准则分类识别,将得到的分类识别结果自动标注在输出图像中。将已经标注识别结果的图像连续输出,便能获得已经识别完成的输出视频。(3)场景目标识别是场景理解的重要内容之一,本文提出一种新颖的基于视觉显著性的场景目标识别的方法。该方法受生物视觉认知机理的启发,利用视觉显著机制来凸显场景中的感兴趣区域。首先利用GBVS模型对图像数据进行高效筛选,获得特定感兴趣的显著性区域。然后基于图分割理论的(Graph Cuts Theory)的GrabCut算法被用于提取图像中的显著性目标。最后运用SURF特征描述目标对象,通过SURF特征的学习来产生目标物体的BoVW视觉词包,运用视觉词包的SVM分类匹配实现目标对象的图像特征与语义描述之间的知识映射。通过麻省理工学院的LabelMe图像库的实验测试,结果表明本文所述的方法具有较高的识别率。