基于多模态融合的开放空间个体情绪识别 |
| |
引用本文: | 黄颖,罗玮,刘金全,熊昆洪,刘苹,卿粼波.基于多模态融合的开放空间个体情绪识别[J].计算机应用,2022(S2):36-41. |
| |
作者姓名: | 黄颖 罗玮 刘金全 熊昆洪 刘苹 卿粼波 |
| |
作者单位: | 2. 四川大学电子信息学院;3. 四川大学商学院 |
| |
摘 要: | 开放空间中的情绪识别,能极大地提高人机交互能力、监测个体在开放空间中的情绪波动进而分析心理障碍或发育障碍等,从而促进个体发展、人际社交和社会发展。将面部表情识别转化为多模态情绪识别,能很好地促进开放空间中的识别效果。针对开放空间中图像分辨率较低、情绪识别精度难以提升的问题,提出了一种融合面部表情、骨架数据及身体全局特征的开放空间下的个体情绪识别方法。首先通过嵌入深度注意力中心损失(DACL)模块的分散注意力网络(DAN)、时空图卷积网络(ST-GCN)、卷积三维(C3D)网络分别提取面部表情信息、骨架姿态信息以及身体全局信息;然后基于预训练的前提,在决策层进行可变权重的信息融合,最终实现个体情绪的有效识别。在开放空间个体情绪数据集SCU-FABE上进行实验。实验结果表明,各通道有效提取了各模态的特征信息,均具有一定的情绪识别能力;在有效融合3个模态的信息后,情绪识别准确率为98.790%,与双流融合方法相比,所提方法的识别准确率提高了3.024个百分点;对开放空间下的个体情绪识别有良好的鲁棒性。
|
关 键 词: | 个体情绪识别 开放空间 决策层融合 面部表情 人体骨架 全局身体信息 |
|
|