论文部分内容阅读
人体行为识别是机器视觉中的一项重点难点问题,在智能安防、智慧养老、人机交互等领域都有着广泛的应用价值。传统的人体行为识别方法需要佩戴各种传感器且识别的动作类别有限、准确率不高。随着深度学习在该领域的应用和大规模数据集的发展,人体行为识别技术取得了突飞猛进的发展。然而实际生活场景往往复杂多变,且常常包含多目标动态环境使得目前的算法无法进行有效的识别。针对目前存在的问题,本文基于深度学习算法对行为识别技术开展了以下研究:针对目前的人体行为识别算法在实际生活场景中识别准确率低、对背景变换适应性差的问题,提出了一种基于目标检测的行为识别方法。对经典目标检测算法的精度和速度等方面的优缺点以及相关理论原理进行分析,在目标检测网络模型YOLOv3的基础上训练了一个单类的人体检测器,提高了检测模块的平均准确率以及推理速度。对当前效果比较好的行为识别网络模型进行分析,使用I3D模型结构作为行为识别模块的基础网络。结合人体检测器和I3D网络模型,通过检测器获取的人体位置、存在状态等信息对于每帧图片进行预处理,获取以人体为中心的感兴趣区域,去除背景,从而提升行为识别算法对于在不同背景下的识别率。在多目标动态场景下,仅仅依靠于目标检测无法实现对特定目标的行为进行识别。针对这一问题,提出基于多目标跟踪的行为识别方法。分析了基于目标检测的多目标跟踪算法DeepSort实现原理,使用性能更加优越的目标检测器YOLOv3替换原方法中的检测器,提升跟踪算法的性能。结合多目标跟踪算法和行为识别算法,将第一帧中的目标确定为待识别目标,初始化跟踪器状态,根据人体边界框信息、以及浅层特征提取卷积神经网络得到的特征向量构建代价矩阵,然后通过匈牙利算法实现帧与帧之间的数据关联和相应目标身份匹配,跟踪特定的目标,对该目标进行行为识别,从而实现在多目标场景下对特定目标的行为进行识别。在本文的最后介绍了在实际场景中采集的测试数据集,并在此基础上对前文提出的方法进行实验验证,并基于Turtlebot机器人搭建了实时的危险行为检测系统,验证算法在不同场景下的有效性。