论文部分内容阅读
本文研究目的:从背景相对静止的彩色视频序列中分割出运动目标,然后进行识别。 运动目标分割部分,本文提出将图像的色彩信息与视频运动信息相融合的方法,从视频序列图像中分割运动目标。在彩色图像分割中,将部分空间信息介入到迭代均值偏移过程,实现无参数聚类。该算法只需设置很少的参数,即能以较快的速度将图像中每个像素归类到相应的密度模式下,从而实现聚类。然后利用本文提出的求等同标志连通区域的方法,将聚类之后的图像划分成不同的独立区域;由于HOS(Higher-order statistics高阶统计)方法具有较好的去除高斯类噪声的特性,所以本文用它来进行运动检测。再利用坎尼算子提取运动区域轮廓,并对其内部填充后,即得到一个运动粗模板。统计这个运动粗模板中等同颜色区域占原图像相应独立区域的比重,若比重超过预置阈值,则将该独立区域作为待融合区域;否则,说明这部分信息不属于运动部分,不将其作为待融合区域。最后,将所有的待融合区域连接起来,就构成了运动目标模板。 目标识别部分,本文只对二维模式进行识别。由于物体和摄像机位置关系的不同,拍摄结果可能出现平移、尺度变化、扭曲和旋转等不同的变化。这些变化的出现严重影响了运动目标的识别结果,为了达到准确识别的目的,我们提出一种基于规格化与Zernike矩相结合的识别方法:首先,计算图像给定模式的协方差矩阵(由图像的某些低阶中心矩构成),根据矩阵的特征向量旋转图像,得到一个与新坐标系无关的图像;然后再根据矩阵特征值进行图像长宽比例调整,得到一个对图像平移、尺度变化、扭曲具有不变性的规格化图像;接着求出规格化图像边缘轮廓,将此轮廓图像的八个高阶Zernike矩作为目标识别的特征值。在对视频图像分割出的运动目标进行识别之前,先要对固定类别的样本,用类似的方法计算出特征值,再按照c-均值聚类法则计算出每类的聚类中心。最后,根据分割出的运动目标模板摘要 视频序列图像中运动目标的分割和识别的研究特征值与各聚类中心的欧氏距离判别物体。实验证明,此方法对于特征相差较明显的物体乃飞机模型)能达到非常好的识别效果。