论文部分内容阅读
自动表情识别Automated Facial Expression Recognition,缩写FER)赋予计算机感知并尝试理解人类情感的能力。在计算机视觉、人机交互和情感计算领域都有着非常重大的研究和应用价值。如果机器能够像人类一样拥有感情的话,那么人类与机器的关系将会被彻底改变,机器对于我们人类而言将不再只是一种工具而已。表情因其独特的心理属性,对于计算机而言存在一定的分析和理解障碍。本质上表情是人类内心复杂情感的外在流露,而这些深藏于内的抽象感情难以被计算机量化表达。所以对于我们而言,表情识别也并不应仅仅归于一种的图像分类问题而已。受益于近几年来深度神经网络模型的快速发展,特别是卷积网络在图像检测和识别方面取得的突破成果,在本文中我们设计和实现了一种基于卷积网络集成的模型来尝试解决表情识别问题。我们的集成卷积网络模型包含两个阶段:第一阶段,训练多个结构不同的卷积子网络模型。每个子网络模型包含着个数不同的卷积层,每个卷积层后连接着非线性激活层和池化采样层。这些卷积子网络模型在训练集上分别训练至收敛。第二阶段,由这些训练好的子网络模型连接在一起构成最终的模型。各个子网络模型通过移除输出层,并把倒数第二层的输出结果连接在一起后再输出到若干全连接层中,通过这样的方式使这些单独训练的子网络模型连接成一个整体。通过不同卷积子网络集成的方式,我们充分发挥了不同结构子模型分类的优势,各个子模型在协同工作中能够发挥互相补充的效果。整个模型输入一张面部表情图片,输出七种基本表情中的一种,包含愤怒、恶心、害怕、高兴、伤心、吃惊以及中立表情。我们在FER20131数据集上训练和测试了整个模型,实验结果显示我们提出的集成网络模型取得65.03%的正确率,非常接近于人眼在此数据集上的识别水平(65±5%),且比单个子模型最多有近4%的准确度提升。