首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
唐佳敏  韩华  黄丽 《计算机工程》2022,48(4):269-275+283
行人再识别研究中存在特征判别信息不够丰富的情况,并且遮挡、光照等因素会干扰有效特征的准确提取,对后续相似性度量、度量结果排序等工作都有较大影响。此外,监督学习需要使用标签信息,在面对大型数据集时工作量很大。通过引入无监督学习框架,提出一种粗细粒度判别性特征提取方法。构建基于细粒度和粗粒度特征学习的模型框架,其中包含局部和全局2个分支。在局部分支中,对图像学习到的特征映射提取补丁块,并在未标记数据集上学习不同位置的细粒度补丁特征;在全局分支中,使用无标注数据集的相似度和多样性作为信息来学习粗粒度特征。在此基础上,利用相吸和相斥2个损失函数分别增加类别内相似度和类别间多样性,并结合最小距离准则计算特征之间的相似度,进行无监督的聚类合并。在Market-1501和DukeMTMC-reID数据集上的实验结果表明,该方法对于完成行人再识别任务具有较好的判别性能和鲁棒性,相比所有对比方法的最优结果,其Rank-1指标分别提高5.76%和5.07%,平均精度均值分别提高3.2%和5.6%。  相似文献   

2.
为了缩小目前行人再识别算法与真实世界中行人检索任务之间在应用上的差距,将行人检测与再识别这2个模块融为一体,提出一种基于改进的FasterR-CNN的行人检索算法.首先采用对边框进行迭代回归的方法改进原FasterR-CNN中的候选行人边框精度;然后利用包含欧氏距离和余弦距离的混合相似性距离函数来增强网络对于行人相似度的辨识能力;最后利用中心损失函数对网络的损失函数进行改进,通过提高不同行人特征的可区分度,实现更加精准的目标行人检索功能.基于CUHK-SYSU数据集的仿真实验结果表明,该算法的累积匹配特性(CMC top-1)、平均精度均值(mAP)分别为81.6%和78.9%;与相关行人检索算法相比, CMC top-1提升3.0%~18.0%, mAP提升3.0%~23.0%.  相似文献   

3.
目的 行人重识别旨在解决多个非重叠摄像头下行人的查询和识别问题。在很多实际的应用场景中,监控摄像头获取的是低分辨率行人图像,而现有的许多行人重识别方法很少关注真实场景中低分辨率行人相互匹配的问题。为研究该问题,本文收集并标注了一个新的基于枪球摄像头的行人重识别数据集,并基于此设计了一种低分辨率行人重识别模型来提升低分辨率行人匹配性能。方法 该数据集由部署在3个不同位置的枪机摄像头和球机摄像头收集裁剪得到,最终形成包含200个有身份标签的行人和320个无身份标签的行人重识别数据集。与同类其他数据集不同,该数据集为每个行人同时提供高分辨率和低分辨率图像。针对低分辨率下的行人匹配难题,本文提出的基准模型考虑了图像超分、行人特征学习以及判别3个方面因素,并设计了相应的超分模块、特征学习模块和特征判别器模块,分别完成低分辨率图像超分、行人特征学习以及行人特征判断。结果 提出的基准模型在枪球行人重识别数据集上的实验表明,对比于经典的行人重识别模型,新基准模型在平均精度均值(mean average precision,mAP)和Rank-1指标上分别提高了3.1%和6.1%。结论 本文构建了典型的...  相似文献   

4.
目的 在行人再识别中,经常出现由于行人身体部位被遮挡和行人图像对之间不对齐而导致误判的情况。利用人体固有结构的特性,关注具有显著性特征的行人部件,忽略带有干扰信息的其他部件,有利于判断不同摄像头拍摄的行人对是否为同一人。因此,提出了基于注意力机制和多属性分类的行人再识别方法。方法 在训练阶段,利用改进的ResNet50网络作为基本框架提取特征,随后传递给全局分支和局部分支。在全局分支中,将该特征作为全局特征进行身份和全局属性分类;在局部分支中,按信道展开特征,获取每层响应值最高的点,聚合这些点,分成4个行人部件,计算每个行人部件上显著性特征的权重,并乘以初始特征得到每个部件的总特征。最后将这4个部件的总特征都进行身份和对应属性的分类。在测试阶段,将通过网络提取的部位特征和全局特征串联起来,计算行人间的相似度,从而判断是否为同一人。结果 本文方法引入了Market-1501_attribute和DukeMTMC-attribute数据集中的属性信息,并在Market-1501和DukeMTMC-reid数据集上进行测试,其中rank-1分别达到90.67%和80.2%,mAP分别达到76.65%和62.14%;使用re-ranking算法后,rank-1分别达到92.4%和84.15%,mAP分别达到87.5%和78.41%,相比近年来具有代表性的其他方法,识别率有了极大提升。结论 本文方法通过学习行人属性能更快地聚集行人部件的注意力,而注意力机制又能更好地学习行人部位的显著性特征,从而有效解决了行人被遮挡和不对齐的问题,提高了行人再识别的准确率。  相似文献   

5.
金大鹏  李旻先 《计算机应用研究》2023,40(4):1220-1225+1255
基于监督学习的行人再识别方法需要大量人工标注的数据,对于实际应用并不适用。为了降低大规模行人再识别的标注成本,提出了一种基于支持对挖掘主动学习(support pair active learning, SPAL)的行人再识别方法。具体地,建立了一种无监督主动学习框架,在该框架中设计了一种双重不确定性选择策略迭代地挖掘支持样本对并提供给标注者标注;其次引入了一种约束聚类算法,将有标签的支持样本对的关系传播到其他无标签的样本中;最后提出了一种由无监督对比损失和监督支持样本对损失组成的混合学习策略来学习具有判别性的特征表示。在大规模行人再识别数据集MSMT17上,该方法相比于当前最先进的方法,标注成本降低了64.0%,同时mAP和rank1分别提升了11.0%和14.9%。大量实验结果表明,该方法有效地降低了标注成本并且优于目前最先进的无监督主动学习行人再识别方法。  相似文献   

6.
行人搜索旨在从一系列未经裁剪的图像中对行人进行定位与识别,融合了行人检测和行人重识别两个子任务。现有的方法设计了基于Faster R-CNN的端到端框架来解决此任务,但是行人检测和重识别两个子任务之间存在特征优化目标粒度不一致问题。为了解决这一问题,提出一种双全局池化结构,使用全局平均池化提取检测分支的共性特征,使用基于注意力机制的全局K最大池化提取re-ID分支的特性特征,为两个子任务提取符合各自粒度特性的特征。同时由于re-ID子任务的细粒度特性,还提出一种改善粒度匹配的画廊边界框加权算法,把查询人和画廊边界框的分辨率差异纳入相似度计算。实验证明融入多粒度的方法有效地提高了单阶段算法在CHUK-SYSU和PRW数据集上的性能。  相似文献   

7.
吴昊 《自动化与仪表》2023,(3):59-62+67
针对在拥堵场景下多目标跟踪身份频繁切换的问题,该文提出了一种融合行人重识别任务与目标检测任务的联合网络。在YOLOX检测算法上添加重识别(Re-identification)分支,获得含有重识别特征的行人检测框;在ByteTrack跟踪算法的检测框与预测框特征匹配的基础上,利用重识别特征弥补ByteTrack网络在匹配过程中行人外观特征缺失的问题,并结合行人运动特征,进一步提升特征匹配的准确率,减少身份切换次数。在公开数据集MOT17上进行实验,改进后的网络m AP提升2.6%,达到了95.4%,不同尺寸的mAP与mAR均获得明显提升,运行效率几乎保持不变。  相似文献   

8.
针对行人重识别研究中训练样本的不足,为提高识别精度及泛化能力,提出一种基于卷积神经网络的改进行人重识别方法。首先对训练数据集进行扩充,使用生成对抗网络无监督学习方法生成无标签图像;然后与原数据集联合作半监督卷积神经网络训练,通过构建一个Siamese网络,结合分类模型和验证模型的特点进行训练;最后加入无标签图像类别分布方法,计算交叉熵损失来进行相似度量。实验结果表明,在Market-1501、CUHK03和DukeMTMC-reID数据集上,该方法相比原有的Siamese方法在Rank-1和mAP等性能指标上有近3~5个百分点的提升。当样本较少时,该方法具有一定应用价值。  相似文献   

9.
针对行人重识别中行人文本属性信息未被充分利用以及文本属性之间语义联系未被挖掘的问题,提出一种基于多模态的图卷积神经网络(GCN)行人重识别方法。首先使用深度卷积神经网络(DCNN)学习行人文本属性与行人图像特征;然后借助GCN有效的关系挖掘能力,将文本属性特征与图像特征作为GCN的输入,通过图卷积运算来传递文本属性节点间的语义信息,从而学习文本属性间隐含的语义联系信息,并将该语义信息融入图像特征中;最后GCN输出鲁棒的行人特征。该多模态的行人重识别方法在Market-1501数据集上获得了87.6%的平均精度均值(mAP)和95.1%的Rank-1准确度;在DukeMTMC-reID数据集上获得了77.3%的mAP和88.4%的Rank-1准确度,验证了所提方法的有效性。  相似文献   

10.
文本-图像行人检索旨在从行人数据库中查找符合特定文本描述的行人图像.近年来受到学术界和工业界的广泛关注.该任务同时面临两个挑战:细粒度检索以及图像与文本之间的异构鸿沟.部分方法提出使用有监督属性学习提取属性相关特征,在细粒度上关联图像和文本.然而属性标签难以获取,导致这类方法在实践中表现不佳.如何在没有属性标注的情况下提取属性相关特征,建立细粒度的跨模态语义关联成为亟待解决的关键问题.为解决这个问题,融合预训练技术提出基于虚拟属性学习的文本-图像行人检索方法,通过无监督属性学习建立细粒度的跨模态语义关联.第一,基于行人属性的不变性和跨模态语义一致性提出语义引导的属性解耦方法,所提方法利用行人的身份标签作为监督信号引导模型解耦属性相关特征.第二,基于属性之间的关联构建语义图提出基于语义推理的特征学习模块,所提模块通过图模型在属性之间交换信息增强特征的跨模态识别能力.在公开的文本-图像行人检索数据集CUHK-PEDES和跨模态检索数据集Flickr30k上与现有方法进行实验对比,实验结果表明了所提方法的有效性.  相似文献   

11.
针对行人重识别应用中行人图像易受到光照、相似着装、拍摄角度影响而出现难分样本对,导致错误匹配的问题,提出一种联合损失结合孪生网络的行人重识别优化算法。首先利用残差卷积神经网络提取图像特征,并以焦点损失(Focal Loss)和交叉熵损失的联合损失对提取的特征进行监督训练,增加模型对难分样本对的关注度;然后采用余弦距离计算图像间的相似度实现行人的重识别;最后加入重排序算法降低误匹配率。采用Market-1501和DukeMTMC-reID数据集进行实验,结果表明,该算法的匹配率分别为91.2%和84.4%,平均精度均值(mAP)分别为85.8%和78.6%。  相似文献   

12.
无监督行人重识别的挑战在于学习没有真实标签的行人的判别性特征。为增强网络对行人特征的表达能力,进一步从空间和通道维度上提取更丰富的特征信息,提出了一种基于多分支注意网络的行人重识别特征提取方法。该方法通过捕获空间维度和通道维度上不同分支之间的交互信息,能够学习到更具判别性的行人特征表示。此外,针对噪声标签会对聚类质心产生干扰的问题,提出了相似度学习策略(SLS)。该策略先计算每个聚类中样本特征之间的相似性,然后选取相似性分数最高的特征向量所对应的样本进行对比学习,有效地缓解了聚类噪声导致的累积训练误差。实验结果表明,和无监督场景下的自步对比学习方法(SPCL)相比,在Market-1501,DukeMTMC-reID和MSMT17等3个数据集上的rank-1准确度分别提升了4.6%,3.3%和16.3%,显著地提高了无监督行人重识别的检索精度。  相似文献   

13.
祁磊  于沛泽  高阳 《软件学报》2020,31(9):2883-2902
近年来随着智能监控领域的不断发展,行人重识别问题逐渐受到学术界和工业界的广泛关注,其主要研究将不同摄像头下相同身份的行人图像进行关联.当前大部分研究工作关注在有监督场景下,即给定的训练数据都存在标记信息,然而考虑到数据标注工作的高成本,这在现实应用中往往是难以拓展的.本文关注于弱监督场景下的行人重识别算法,包括无监督场景和半监督场景,并且对当前先进的方法进行了分类和描述.对于无监督场景的行人重识别算法,本文根据其技术类型划分为五类,分别为基于伪标记的方法、基于图像生成的方法、基于实例分类的方法、基于领域自适应的方法和其他方法;对于半监督场景的行人重识别方法,本文根据其场景类型划分为四类,分别为少量的人有标记的场景、每一个人有少量标记的场景、基于tracklet的学习的场景和摄像头內有标记但摄像头间无标记的场景.最后,本文对当前行人重识别的相关数据集进行了整理,并对现有的弱监督方法的实验结果进行分析与总结.  相似文献   

14.
针对行人图像的深度特征缺乏对局部细节的描述,及不完全具备对尺度、旋转、平移及光照变化等各种因素的不变性而导致行人搜索准确率低的问题,本文提出一种具有强化深度特征融合的行人搜索系统。该系统将行人候选网络和行人识别网络两部分整合优化成统一框架。其中,行人候选网络实现行人框的获取及标定,而行人识别网络在获取深度学习特征的基础上融入具有几何不变性的传统特征,建立一个强化深度特征融合网络模型。实验结果表明,本文采用强化深度特征融合的网络模型,在SSM数据集上检测并框出图片中的行人,其Top-1识别正确率高达80.7%,比单纯采用深度特征模型更具优越性。  相似文献   

15.
在基于深度学习的遥感图像目标检测任务中,船只目标通常呈现出任意方向排列的特性,而常见的水平框目标检测算法一般不能满足此类场景的应用需求。因此本文在单阶段Anchor-Free目标检测器CenterNet的基础上加入旋转角度预测分支,使其能输出旋转边界框,以用于海上船只目标的检测。同时针对海上船只遥感数据集仅有水平边界框标注,无法直接适用于旋转框目标检测,且人工手动标注旋转框标签成本较高的问题,提出一种主动迁移学习的旋转框标签生成方法。首先,提出一种水平框-旋转框约束筛选算法,通过水平真值边界框来对旋转预测框进行监督约束,筛选出检测精度较高的图像加入训练集,然后通过迭代这一过程筛选出更多的图像,最后通过标签类别匹配,完成对数据集的旋转框自动化标注工作。本文最终对海上船只遥感图像数据集BDCI中约65.59%的图片进行旋转框标注,并手动标注部分未标注的图片作为测试集,将本文方法标注的图片作为训练集进行验证,评估指标AP50达到90.41%,高于其他旋转框检测器,从而表明本文方法的有效性。  相似文献   

16.
陈代丽  许国良 《计算机应用》2022,42(5):1391-1397
针对行人重识别任务跨域迁移时性能严重衰退的问题,提出了一种基于注意力机制学习域内变化的跨域行人重识别方法。首先,以ResNet50为基础架构并对其进行调整使其适合行人重识别任务,并引入实例-批归一化网络(IBN-Net)以提高模型的泛化能力,同时增加区域注意力分支以提取更具鉴别性的行人特征。对于源域的训练,将其作为分类任务,使用交叉熵损失进行源域的有监督学习,同时引入三元组损失来挖掘源域样本的细节,从而提高源域的分类性能。对于目标域的训练,通过学习域内变化来适应源域和目标域间的数据分布差异。在测试阶段,以ResNet50 pool-5层的输出作为图像特征,并计算查询图像与候选图像间的欧氏距离来度量两者的相似度。在两个大规模公共数据集Market-1501和DukeMTMC-reID上进行实验,所提方法的Rank-1准确率分别达到80.1%和67.7%,平均精度均值(mAP)分别为49.5%和44.2%。实验结果表明,所提方法在提高模型泛化能力方面性能较优。  相似文献   

17.
当前的行人再识别在度量学习上采用马氏距离相似度函数, 该相似度函数只与特征差分空间有关, 忽略了一对行人图像中每个个体的外观特征, 针对上述问题, 提出了通过学习一个双向关系相似度函数(Bidirectional Relationship Similarity Function, BRSF), 来计算一对行人图像的相似度. BRSF不但描述了一对行人图像的互相关关系, 而且关联了一对行人图像的自相关关系. 该文利用KISSME(Keep It Simple and Straightforward Metric)算法的思想进行相似度函数学习, 把一对样本特征的自相关关系和互相关关系用高斯分布来表示, 通过把最终高斯分布的比值转换为BRSF的形式, 得到一个对背景、视角、姿势的变化具有鲁棒性的相似度函数. 在VIPeR, QMUL GRID两个行人再识别数据集上的实验结果表明, 本文算法具有较高的识别率, 其中在VIPeR数据集上, Rank1达到了53.21%.  相似文献   

18.
针对在实际场景中存在的不同行人图像之间比相同行人图像之间更相似所造成的行人再识别准确率较低的问题,提出一种基于孪生网络并结合识别损失和双向最大边界排序损失的行人再识别方法。首先,对在超大数据集上预训练过的神经网络模型进行结构改造,主要是对最后的全连接层进行改造,使模型可以在行人再识别数据集上进行识别判断;其次,联合识别损失和排序损失监督网络在训练集上的训练,并通过正样本对的相似度值减去负样本对的相似度值大于预定阈值这一判定条件,来使得负例图像对之间的距离大于正例图像对之间的距离;最后,使用训练好的神经网络模型在测试集上测试,提取特征并比对特征之间的余弦相似度。在公开数据集Market-1501、CUHK03和DukeMTMC-reID上进行的实验结果表明,所提方法分别取得了89.4%、86.7%、77.2%的rank-1识别率,高于其他典型的行人再识别方法,并且该方法在基准网络结构下最高达到了10.04%的rank-1识别率提升。  相似文献   

19.
为了提高行人检测方法的准确率,针对行人图像特征,提出一种基于深度残差网络和YOLO(You Only Look Once)方法的行人检测方法。以加强行人特征表达为目的,通过分析行人在图像中的表达和分布特征,提出一种不影响实时性的矩形输入深度残差网络分类模型以改进YOLO检测方法,使模型能够更好的表征行人;为了进一步提高模型的准确率和泛化能力,采用了混合行人数据集训练的方式,提取VOC数据集的行人数据与INRIA数据集组成混合数据集进行训练,明显降低了漏检率;并且利用聚类分析预测框的方法重新设计了初始预测框,提高行人定位能力并加快收敛。经公开的INRIA数据集的测试实验证明,本方法较主流的行人检测方法每张图片误检率有明显改善,降低至13.86%,有1.51%至58.62%不同程度的提升,并且本方法拥有良好的实时性和泛化能力,实用性强。  相似文献   

20.
陈首兵  王洪元  金翠  张玮 《计算机应用》2018,38(11):3161-3166
针对非重叠多摄像头下的行人重识别(Re-ID)易受到光照、姿势及遮挡等影响和实验过程中存在图像错误匹配的情况,提出一种基于孪生网络和重排序的行人重识别方法。首先,给定一对行人训练图像,孪生网络可以同时学习一个具有辨别力的卷积神经网络(CNN)特征和相似性度量,并预测两个输入图像的行人身份以及判断它们是否属于同一个行人;然后,通过k互近邻方法来降低图像错误匹配的情况;最后,将欧氏距离和杰卡德距离加权来对排序表进行重排序。在数据集Market1501和CUHK03上进行多次实验,实验结果显示在Market1501上Single Query情况下在图库中第一次就成功匹配的概率(Rank1)达到83.44%,平均精度均值(mAP)为68.75%,在CUHK03上single-shot情况下Rank1达到85.56%,mAP为88.32%,明显高于传统的基于特征表示和度量学习的方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号