融合全局-局部上下文信息的小目标多人姿态估计 |
| |
引用本文: | 龙辰志,陈平,李传坤.融合全局-局部上下文信息的小目标多人姿态估计[J].计算机工程,2024(4):342-349. |
| |
作者姓名: | 龙辰志 陈平 李传坤 |
| |
作者单位: | 中北大学信息探测与处理山西省重点实验室 |
| |
基金项目: | 国家自然科学基金(62101512);;山西省青年科学基金(20210302124031); |
| |
摘 要: | 尽管多人2D姿态估计方法趋近成熟,但是现有方法无法有效识别小目标的姿态。针对当前小目标姿态难以识别的问题,提出一种融合全局-局部上下文信息的多人姿态估计方法。利用高分辨率网络(HRNet)输出的不同尺度特征对人体的多个解剖中心进行粗糙的定位,通过多个中心点给小目标提供更多的监督信息,提高对小目标的定位能力。以定位的人体中心点坐标为线索,通过可变形采样的方式提取中心点附近不同尺度的局部上下文信息,并计算不同目标局部上下文信息之间的对比损失以提高目标之间的判别能力。以HRNet网络的低分辨率特征作为全局上下文信息,以局部上下文信息作为交叉注意力的查询,结合全局和局部上下文信息构建多层Transformer模型,增强小目标的上下文信息。将增强的小目标上下文信息作为聚类中心,解耦多尺度融合的特征得到不同目标对应的关键点热图,从而实现小目标多人姿态估计。实验结果表明,该方法能够有效提高小目标姿态的识别性能,在COCO test-dev2017数据集上取得了69.0%的平均精度(AP),APM比对偶解剖中心(DAC)方法提高1.4个百分点。
|
关 键 词: | 姿态估计 小目标 多中心点 注意力 上下文信息 |
|
|