首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 343 毫秒
1.
张新峰  宋博 《计算机科学》2021,48(9):146-152
行人重识别旨在跨摄像头条件下,从目标数据库中检索出特定的行人目标,其在视频监控领域有重要的应用价值.目前其研究难点为样本图像类内差异大、类间差异小,因此如何设计并训练深度神经网络对行人图片提取一个判别力更强的特征成为了其关键.针对以往研究只单独进行全局特征或局部特征学习的不足,提出了一种联合全局特征和局部特征学习的网络...  相似文献   

2.
针对行人重识别中已有方法难以解决行人图像光照、视角变化大的问题,提出了一种基于特征融合的行人重识别方法。首先利用Retinex变换对图像进行预处理;然后将CN特征与原有的颜色和纹理特征融合,并通过区域和块划分的方式提取直方图获得图像特征;最后采用不同的距离学习方法在4个数据集上进行行人重识别。实验结果表明,融合后的特征对行人图像具有更好的表述能力,实现了重识别精度的较大提升,验证了方法的有效性。  相似文献   

3.
针对目前行人重识别出现网络模型复杂化、识别率低的问题,提出一种基于全局特征拼接的行人重识别算法。首先利用卷积神经网络(CNN)提取全局特征;然后把不同卷积层提取的特征进行拼接,使特征信息互补;最后将拼接后的特征再次进行卷积处理,获得高表征能力的特征。网络训练时,采用聚类损失函数和标签平滑损失函数联合训练,同时引入了随机擦除和减小池化步长的训练技巧。在Market1501、DukeMTMC-reID、CUHK03和MSMT17数据集上进行了实验验证,实验表明所提算法具有良好性能,其中在Market1501上,Rank-1、mAP分别达到了95.9%和94.6%。  相似文献   

4.
针对行人重识别中由于姿势变化、视角改变、遮挡等引起的识别率不高的问题,提出了融合外观特征的行人重识别方法.该方法通过两个网络分支的设计,分别提取行人的全局特征和局部特征,二者融合后得到行人的外观特征.同时结合分类损失和度量学习损失,通过多任务学习策略对两个网络分支进行模型优化.此外,该模型设计了随机擦除算法,在数据集中...  相似文献   

5.
行人重识别是一项解决跨场景跨摄像头下的行人识别问题的技术。当障碍物遮挡行人的某些部位时,人物结构的完整性会被破坏,影响识别效果或难于识别。针对行人重识别的遮挡问题,提出了一种新的遮挡行人重识别方法,引入关系感知全局注意力机制,融合全局特征和局部特征来进行行人重识别。识别方法的主要组成部分包括局部分支、全局分支和特征融合分支等。局部分支通过遍历局部特征来增强鲁棒性;全局分支通过利用关系感知全局注意力来挖掘行人显著性的信息;特征融合分支通过自适应地生成特征权重,利用加权求和的方式来融合全局特征和局部特征。实验验证了所提方法的有效性,并且有效提升了行人重识别的效果。  相似文献   

6.
韩建栋  李晓宇 《计算机应用》2021,41(10):2991-2996
针对行人重识别任务在特征提取时缺乏对行人特征尺度变化的考虑,导致其易受环境影响而具有低行人重识别准确率的问题,提出了一种基于多尺度特征融合的行人重识别方法。首先,在网络浅层通过混合池化操作来提取多尺度的行人特征,从而帮助网络提升特征提取能力;然后,在残差块内添加条形池化操作以分别提取水平和竖直方向的远程上下文信息,从而避免无关区域的干扰;最后,在残差网络之后利用不同尺度的空洞卷积进一步保留多尺度的特征,从而帮助模型灵活有效地解析场景结构。实验结果表明,在Market-1501数据集上,所提方法的Rank1达到95.9%,平均精度均值(mAP)为88.5%;在DukeMTMC-reID数据集上,该方法的Rank1达到90.1%,mAP为80.3%。可见所提方法能够较好地保留行人特征信息,从而提高行人重识别任务准确率。  相似文献   

7.
针对行人重识别技术受遮挡、背景冗余、光照、姿态以及检测误差等问题的影响,鲁棒的行人特征表达对正确检索行人越来越重要.为了利用对齐特征和度量学习的优势,进一步分析局部空间语义特征.首先,在特征层面:一是在ResNet50框架中嵌入空间变换结构,自适应对齐局部区域空间特征,解决因局部区域不对齐导致的空间语义不一致的问题;二是通过对齐的局部特征设计一种增强特征融合网络,充分利用语义信息间的关联性提取图像的细节特征.然后,在损失函数层面:提出一种排序矩阵方法选取区域样本对,设计了一种局部三元组损失计算方法,联合正则化分类损失共同训练网络,充分利用融合的增强特征,达到高效度量的效果.最后,文中方法结合现有的重排算法进一步提高了Rank-1与mAP检索精度,在行人重识别基准数据集Market-1501上的实验结果,证明了本文方法的有效性.  相似文献   

8.
董亚超  刘宏哲  徐成 《计算机工程》2021,47(6):234-244,252
由于背景信息复杂、遮挡等因素的影响,现有基于局部特征的行人重识别方法所提取的特征不具有辨别力和鲁棒性,从而导致重识别精度较低,针对该问题,提出一种基于显著性检测与多尺度特征协作融合的SMC-ReID方法.利用显著性检测提取行人中具有判别力的特征区域,融合显著性特征与全局特征并完成不同尺度的切块,将上述不同尺度的特征进行...  相似文献   

9.
行人重新识别(Re-ID)是一种基于人体整体特征的身份识别方法,是指在图像或者视频序列中判断是否存在特定行人的技术.对于行人重识别方法来说,行人所穿着的衣服特征具有十分重要的影响.然而在某些特殊情况下(例如罪犯为了摆脱跟踪,更换衣服后逃跑等),目标行人在查询图像和图像库中的衣服特征是不同的,这使得目前的行人重识别方法难以将目标人物的图像与图像库中的人物相匹配.为了解决这一问题,提出了一种基于衣服特征迁移的行人重识别方法.给定一个目标人物的查询图像,将该查询图像行人的衣服特征迁移到图像库中的所有行人身上,以此消除衣服特征的差异.最后,该模型在数据集PRDDC上进行了验证,实验结果表明,与没有服装特征转移模块的算法相比,该算法有显著的改进.  相似文献   

10.
行人重识别旨在大规模的分布式监控系统中进行行人目标匹配,紧凑且具有鲁棒性的特征表达对其至关重要,为此,本文提出了一种基于特征融合网络的特征提取方法.首先,利用STEL算法增强了LOMO特征对背景噪声的抗噪性能,利用KPCA算法降低维度以便于后续融合.随后,本文探索了手工特征和CNN特征的互补性,将改进LOMO特征融入至卷积神经网络之中,得到了区分度更高的融合特征.在VIPeR和CUHK01数据集上的测试结果表明,本文融合特征的区分度明显高于单一特征和级联特征,Rank-1较级联特征分别提高了3.73%和2.36%.  相似文献   

11.
12.
针对真实环境中非重叠多摄像头的行人重识别受到不同摄像机场景、视角、光照等因素的影响导致行人重识别精度低的问题,提出一种基于注意力机制的行人重识别特征提取方法。首先,使用随机擦除法对输入的行人图像进行数据增强,提高网络的鲁棒性;然后,通过构建自上而下的注意力机制网络增强空间像素特征的显著性,并将注意力机制网络嵌入ResNet50网络提取整个行人的显著特征;最后,将整个行人的显著特征进行相似性度量并排序得到行人重识别的结果。该注意力机制的行人重识别特征提取方法在Market1501数据集上Rank1达到88.53%,平均精度均值(mAP)为70.70%;在DukeMTMC-reID数据集上Rank1达到77.33%,mAP为59.47%。所提方法在两大行人重识别数据集上性能都有明显提升,具有一定的应用价值。  相似文献   

13.
行人再识别中,为了获得基于突出性颜色名称的颜色描述(SCNCD)特征对于光照变化较好的鲁棒性,提出了融合SCNCD特征和对于视角变化鲁棒性高的局部最大出现概率(LOMO)表观特征;为了获得图像的结构信息,将图像划分为多个重叠块,并提取块特征;针对神经网络容易陷入局部极小值,且收敛速度慢的问题,引入动量项.经过公用VIPeR数据库和PRID450s数据测试后,实验结果表明:融合后的特征的识别能力明显高于原特征的识别能力,且改进后的神经网络收敛速度明显提高.  相似文献   

14.
针对行人目标在不同摄像机下外观显著性变化的问题,提出一种基于特征融合及差异矩阵的行人再识别算法。串联融合显著颜色名描述符(SCNCD)和微调的卷积神经网络(FTCNN)特征来描述行人图像,采用K-means算法获取包含典型行人图像的参考集以优化目标与参考身份相对应的重建关系,运用差异矩阵度量(DMMM)算法进行度量学习。在VIPeR和PRID450s行人再识别数据集上的实验结果表明,所提行人再识别算法具有良好的匹配率和有效性。  相似文献   

15.
针对行人重识别中传统的人工提取的行人浅层特征因受摄像机角度、光照等外界环境的影响,鲁棒性不好,收敛速度慢的问题,研究使用预训练卷积神经网络模型在行人数据库上进行微调的方法,对行人图片进行特征提取,从而得到高维的深层行人特征,最后通过欧氏距离进行相似性的度量。实验结果证明,深层的行人特征在平均准确度评估标准上,相比于传统的人工设计特征,分别得到了9.51%、11.12%、16.63%、16.96%的提高,收敛速度也变得更快,说明深层特征的行人识别能力更强。  相似文献   

16.
邓轩  廖开阳  郑元林  袁晖  雷浩  陈兵 《计算机应用》2019,39(8):2223-2229
传统手工特征很大程度上依赖于行人的外观特征,而深度卷积特征作为高维特征,直接用来匹配图像会消耗大量的时间和内存,并且来自较高层的特征很容易受到行人姿势背景杂波影响。针对这些问题,提出一种基于深度多视图特征距离学习的方法。首先,提出一种新的整合和改善深度区域的卷积特征,利用滑框技术对卷积特征进行处理,得到低维的深度区域聚合特征并使其维数等于卷积层通道数;其次,通过交叉视图二次判别分析方法,从深度区域聚合特征和手工特征两个角度出发,提出一种多视图特征距离学习算法;最后,利用加权融合策略来完成传统特征和卷积特征之间的协作。在Market-1501和VIPeR数据集上的实验结果显示,所提融合模型的Rank1值在两个数据集上分别达到80.17%和75.32%;在CUHK03数据集新分类规则下,所提方法的Rank1值达到33.5%。实验结果表明,通过距离加权融合之后的行人重识别的精度明显高于单独的特征距离度量取得的精度,验证了所提的深度区域特征和算法模型的有效性。  相似文献   

17.
行人重识别精度主要取决于特征描述和度量学习两个方面。在特征描述方面,现有特征难以解决行人图像视角变化的问题,因此考虑将颜色标签特征与颜色和纹理特征融合,并通过区域和块划分的方式提取直方图获得图像特征;在度量学习方面,传统的核局部Fisher判别分析度量学习方法对所有查询图像统一映射到相同的特征空间中,忽略了查询图像不同区域的重要性,为此在核局部Fisher判别分析的基础上对特征进行区域分组,采用查询自适应得分融合方法来描述图像不同区域的重要性,由此实现度量学习。在VIPeR和iLIDS数据集上,实验结果表明融合后的特征描述能力明显优于原始特征,同时改进的度量学习方法有效提高了行人重识别精度。  相似文献   

18.
现有视频行人重识别方法无法有效地提取视频连续帧之间的时空信息,因此提出一种基于非局部关注和多重特征融合的行人重识别网络来提取全局与局部表征特征和时序信息。首先嵌入非局部关注模块来提取全局特征;然后通过提取网络的低中层特征和局部特征实现多重特征融合,从而获得行人的显著特征;最后将行人特征进行相似性度量并排序,计算出视频行人重识别的精度。在大数据集MARS和DukeMTMC-VideoReID上进行实现,结果显示所提出的模型较现有的多尺度三维卷积(M3D)和学习片段相似度聚合(LCSA)模型的性能均有明显提升,平均精度均值(mAP)分别达到了81.4%和93.4%,Rank-1分别达到了88.7%和95.3%;同时在小数据集PRID2011上,所提模型的Rank-1也达到94.8%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号