论文部分内容阅读
本文主要是针对监控视频数据的动态人脸识别算法的研究。随着计算机技术和视频影像技术的发展,监控摄像头在各种公共场所随处可见。监控摄像头会将监控到的视频影像存到硬盘中用于以后的查找,其中的查找内容主要是查找人。当前的主要查找方式还是人工进行,这对于硬盘中堆积如山的视频影像显然是有些捉襟见肘,因而有必要利用计算机自动查找来提高效率。视频人脸识别算法在查找中起到重要作用。视频数据由于其分辨率低下、各种光照遮挡等情况严重的影响算法的识别效果。现有的视频人脸识别算法对于视频数据空间特征提取不充分以及对视频数据时序信息利用较弱。
针对现有的算法没有充分利用视频数据的空间特征和时序信息的问题,本文提出了一种视频数据特征嵌入的视频人脸识别算法。对于视频人脸数据的空间特征,算法采用具有超强非线性特征表达能力的卷积神经网络进行空间特征的提取。对于视频人脸数据的时序信息,算法通过时序移位模块在提取视频数据空间特征的同时对视频数据的时序信息进行提取。提取到的时序信息通过卷积神经网络与提取到的空间特征进行充分融合。最后对得到融合后的视频人脸数据的静态人脸特征通过提出的时序集成模块进行最后的视频数据特征的集成,得到视频数据的一个嵌入特征。对于最终得到的视频人脸数据的特征,通过度量学习的方式进行模型参数的更新。
本文对提出的视频数据特征嵌入的视频人脸识别算法在COX视频人脸数据集上进行了实验验证。在数据集的视频到视频的场景下对提出的方法进行了实验,并在V2-V1、V3-V2、V1-V2、V2-V3这几种实验情况下取得了较好结果。进一步还对COX数据集进行了戴口罩情况的拓展,用来模拟当下新冠疫情影响下全民戴口罩的情况。并采用提出的方法在拓展之后的数据集上进行了实验,进一步体现本文算法的有效性。
针对现有的算法没有充分利用视频数据的空间特征和时序信息的问题,本文提出了一种视频数据特征嵌入的视频人脸识别算法。对于视频人脸数据的空间特征,算法采用具有超强非线性特征表达能力的卷积神经网络进行空间特征的提取。对于视频人脸数据的时序信息,算法通过时序移位模块在提取视频数据空间特征的同时对视频数据的时序信息进行提取。提取到的时序信息通过卷积神经网络与提取到的空间特征进行充分融合。最后对得到融合后的视频人脸数据的静态人脸特征通过提出的时序集成模块进行最后的视频数据特征的集成,得到视频数据的一个嵌入特征。对于最终得到的视频人脸数据的特征,通过度量学习的方式进行模型参数的更新。
本文对提出的视频数据特征嵌入的视频人脸识别算法在COX视频人脸数据集上进行了实验验证。在数据集的视频到视频的场景下对提出的方法进行了实验,并在V2-V1、V3-V2、V1-V2、V2-V3这几种实验情况下取得了较好结果。进一步还对COX数据集进行了戴口罩情况的拓展,用来模拟当下新冠疫情影响下全民戴口罩的情况。并采用提出的方法在拓展之后的数据集上进行了实验,进一步体现本文算法的有效性。