论文部分内容阅读
现如今,随着计算机超强计算能力和巨大存储能力的提升,以及社会对于安保的需求,监控设备被安装布置在各个地方的不同场景中。同时随着人工智能的发展,使得人们已经不满足于使用人工筛选视频的方法,智能搜索视频方法显得尤为重要。行人重识别是智能视频监控中的一项重要技术,是计算机视觉领域下的研究热点。由于检测框的不正确,障碍物的遮挡,行人姿态的不同和相机角度的差异等等原因,会出现诸如相同行人出现身体未对齐,相同行人但背景迥异,以及行人部分身体遮挡等等现象,从而给行人重识别带来很大的挑战性。因此,本文在引用深度网络模型的基础上,对网络结构和损失函数进行改进,提出一种基于前景分割与多损失融合的行人重识别方法。本文的主要研究内容如下:1.整理和总结了行人重识别的常用方法。从度量学习的角度来详细阐述了在行人重识别中常用的度量损失函数,主要有对比损失、三元组损失、四元组损失和难样本采样三元组损失等等。从局部学习的角度列举出获取局部特征的方法,其中包括水平条纹切割、网格切割等等。同时对度量学习和局部学习中的各类方法进行系统地分析。2.由于障碍物遮挡、摄像机视角不同等原因,导致出现相同行人背景迥异,图像中行人部件缺失等问题。针对这些问题,提出基于前景分割与局部对齐网络。对于数据集中的图像进行前景分割,强化前景目标对于特征的影响,弱化背景噪声的干扰。同时对于行人出现身体未对齐,同一像素位置却对应不同身体部件的现象,对前景图像进行局部对齐。为考虑精确的分割,使用关节点定位的方法,来对分割后的部件进行有效的相似性对比。此外,对于部分身体遮挡的问题,本文使用权重自适应方法来灵活的分配局部损失权重,以获得更高的损失描述模型。3.针对行人分类任务中相似行人容易错误分类等情况,本文提出多损失融合网络,是将局部损失、全局损失和背景约束损失融合来对行人进行识别与分类。网络模型主要由三部分组成:前景分割与局部对齐网络,全局损失融合网络和背景差异约束网络。首先利用前景分割与局部对齐方法,将前景进行局部分割,对局部损失进行自适应加权来解决身体部件缺失问题。同时利用前景损失、全景损失等全局损失来增强模型的泛化能力。此外,背景差异约束网络是通过限制前景、背景与全景之间的特征距离来再次减少背景信息的影响。最后通过对全局损失、局部损失和背景约束损失等多损失进行融合。本文网络是在三元组度量模型的基础上进行改进和优化。在Market-1501、Duke MTMC-re ID和CUHK03公共数据集上对本文方法进行了评估。大量的实验结果表明,能够降低相似类别错分概率,提高识别率。