论文部分内容阅读
人类的非语言性情绪认知主要依赖多渠道的信息感知来实现,包括面部表情、肢体姿势、身体动作、声音、甚至是生理信号。情绪肢体语言,和面孔表情,作为整个身体不可或缺的部分,共同表达个体的情绪状态。随着“情绪肢体语言”研究的展开,以及研究界对于“面孔识别”和“肢体识别”神经机制的认识深入,情绪肢体语言和情绪面孔的交互认知研究也逐渐兴起。目前,“情绪肢体语言和面孔情绪交互作用”的研究结论集中在行为学结果和ERP早期成分(P1)的特征上,对其神经电生理机制的认知仍然不十分清晰。因此,本研究通过设计情绪认知实验,利用事件相关电位和脑地形图分析方法,探索面孔情绪和肢体情绪交互认知的神经电生理机制。研究内容包括:(1)、设计面部情绪和肢体情绪交互认知实验将四种面部表情(伤心、微伤心、开心、微开心)和两种肢体情绪(伤心、开心)刺激进行组合,设计面孔情绪识别任务的电生理认知实验(2)、验证面部表情和肢体情绪交互影响作用的行为学结果从行为学的打分值、反应时间等结果角度,验证情绪肢体语言对面孔表情识别的影响。(3)、探索面孔表情和肢体情绪交互作用的神经生理机制通过对ERP早(N1,N170)、晚期(P2,LPc)成分的分析,以及ERP差异波脑地形图分析,比较不同肢体语言对相同的面部情绪认知的影响,解释该交互影响作用的神经机制。本研究的结论包括:(1)、行为学结果表明,当搭配开心的肢体情绪时,被试对情绪面孔的打分值显得高一些,判断会偏向于“开心”,而搭配悲伤的肢体情绪时,判断会偏向于“悲伤”,证明肢体语言的存在影响了被试对面孔情绪的判断;并且,肢体情绪对面孔情绪判断的影响与面孔情绪程度相关,情绪越强烈,交互影响作用越小,情绪越模糊,交互影响作用越明显。(2)、N170研究结果表明,被试对于开心的肢体语言更加敏感,当搭配开心的肢体语言时,情绪面孔将诱发幅值更大、潜伏期更短的N170成分。本研究提出了肢体语言对情绪面孔识别的影响与结构化处理特异的N170相关的可能性。(3)、P2研究结果表明,相比悲伤的肢体情绪,面孔表情搭配开心的肢体情绪时,显著地激发幅值更大、潜伏期更短的P2成分,证明了P2是肢体、面孔情绪交互的一个标志成分。(4)、差异波脑地形图结果显示,肢体情绪和面孔情绪的交互作用在额中央区的100 300ms时间窗内启动发生。这个结论与我们的预期比较一致,也与其他的研究结论一致。(5)、我们在ERP波形的后期(300 800ms),观察到了情绪一致/不一致效应,具体来说,悲伤开心、开心悲伤这两个“不一致”组合刺激比悲伤悲伤、开心开心的“一致”组合刺激,激活了更强的全脑活动。这个结果从一定程度上验证了之前的研究结论。该研究是对面孔、肢体双模态情绪认知研究的一次探索,在先前研究结论的基础上,提供了新的神经电生理机制证据。