论文部分内容阅读
随着现代社会的发展和人们安全意识的提高,越来越多的重要场合,如车站、银行、政府部门、军事基地等,都需要识别人的身份。传统生物特征如人脸、指纹、虹膜等通常需要近距离或者接触感知。步态可通过人的行走姿态识别身份,被认为是远距离情况下进行智能视觉监控的最具潜力的生物特征。然而,在实际应用中,有诸多因素影响着步态特征的成功识别,其中观察视角的变化是最常见和最困难的因素之一。针对此,本文基于特征子空间学习,探索将不同视角的步态特征投影到公共子空间中实现跨视角步态的分类识别。本文的主要贡献如下:(1)提出一种基于耦合局部保持投影的跨视角步态识别方法。对于两个不同视角的步态样本,通过耦合局部保持投影将步态特征投影到一个特征子空间中进行度量与识别。所提方法在建立不同视角间联系的基础上,加入了各视角内样本间的局部结构保持约束,使投影后的近邻样本仍保留局部关系。实验分析了局部关系保持对跨视角步态识别的作用,实验表明视角跨度越大,对步态识别率的提高帮助越大。(2)提出一种基于多视角最大间隔子空间学习的跨视角步态识别方法。代替了现有跨视角步态识别方法的多次两两组合的子空间学习方式,多视角子空间方法只需要一次学习即可将所有不同视角的步态都投影到一个公共子空间中;在多视角最大间隔子空间学习方法获得的子空间中,同类样本聚集在一起并与相邻的异类样本保持最大的间隔,更加有利于分类识别任务。跨视角步态识别实验表明多视角最大间隔子空间比其他多视角子空间有更强的鉴别能力。(3)提出一种基于大间距深度距离度量学习的跨视角步态识别方法。首先设计了一个精简的卷积神经网络结构,步态分类实验验证了所设计网络结构具有较强的特征表示能力。然后在此卷积神经网络基础上,提出一种大间距深度距离度量学习的子空间学习方法,卷积神经网络将任意视角的步态特征投影到特征子空间中度量,通过约束同类样本距离最小化同时保持异类样本间距离与同类样本间距离差值为一个大间距来优化卷积神经网络。最后实验表明基于卷积神经网络的大间距距离度量学习方法获得了较为满意的跨视角步态识别准确率。