首页 | 本学科首页   官方微博 | 高级检索  
     

基于图卷积网络与自注意力图池化的视频行人重识别方法
引用本文:姚英茂,姜晓燕.基于图卷积网络与自注意力图池化的视频行人重识别方法[J].计算机应用,2023(3):728-735.
作者姓名:姚英茂  姜晓燕
作者单位:上海工程技术大学电子电气工程学院
基金项目:国家自然科学基金资助项目(U2033218)~~;
摘    要:针对跨相机网络视频中存在的遮挡、空间不对齐、背景杂波等因素导致视频行人重识别效果较差的问题,提出一种基于图卷积网络(GCN)与自注意力图池化(SAGP)的视频行人重识别方法。首先,通过区块关系图建模挖掘视频中帧间不同区域的关联信息,并利用GCN优化逐帧图像中的区域特征,缓解遮挡和不对齐等问题;然后,通过SAGP机制去除对行人特征贡献较低的区域,避免背景杂波区域的干扰;最后,提出一种加权损失函数策略,使用中心损失优化分类学习结果,并使用在线软挖掘和类感知注意力(OCL)损失解决难样本挖掘过程中可用样本未被充分利用的问题。实验结果表明,在MARS数据集上,相较于次优的AITL方法,所提方法的平均精度均值(mAP)与Rank-1分别提高1.3和2.0个百点。所提方法能够较好地利用视频中的时空信息,提取更具判别力的行人特征,提高行人重识别任务的效果。

关 键 词:视频行人重识别  图卷积网络  自注意力图池化  加权损失函数策略  中心损失
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号