首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对细粒度图像分类中高类内差异和低类间差异的挑战,提出一种以ConvNeXt网络为主干,使用GradCAM热图进行裁剪和注意力擦除的多分支细粒度图像分类方法。该方法利用GradCAM通过梯度回流得到网络的注意力热图,定位到具有判别性特征的区域,裁剪并放大该区域,使网络关注局部更深层次的特征。同时引入有监督的对比学习,扩大类间差异,减小类内差异。最后进行热图注意力擦除操作,使网络在关注最具判别性特征的前提下,也能关注其他对分类有用的区域。所提方法在CUB-200-2011,Stanford Cars, FGVC Aircraft和Stanford Dogs数据集上的分类准确率分别达到了91.8%,94.9%,94.0%,94.4%,优于多种主流的细粒度图像分类方法,并且在CUB-200-2011和Stanford Dogs数据集上分别达到了top-3和top-1的分类准确率。  相似文献   

2.
目的 由于分类对象具有细微类间差异和较大类内变化的特点,细粒度分类一直是一个具有挑战性的任务。绝大多数方法利用注意力机制学习目标中显著的局部特征。然而,传统的注意力机制往往只关注了目标最显著的局部特征,同时抑制其他区域的次级显著信息,但是这些抑制的信息中通常也含有目标的有效特征。为了充分提取目标中的有效显著特征,本文提出了一种简单而有效的互补注意力机制。方法 基于SE(squeeze-and-excitation)注意力机制,提出了一种新的注意力机制,称为互补注意力机制(complemented SE,CSE)。既从原始特征中提取主要的显著局部特征,也从抑制的剩余通道信息中提取次级显著特征,这些特征之间具有互补性,通过融合这些特征可以得到更加高效的特征表示。结果 在CUB-Birds(Caltech-UCSD Birds-200-2011)、Stanford Dogs、Stanford Cars和FGVC-Aircraft(fine-grained visual classification of aircraft)4个细粒度数据集上对所提方法进行验证,以ResNet50为主干网络,在测试集上的分类精度分别达到了87.9%、89.1%、93.9%和92.4%。实验结果表明,所提方法在CUB-Birds和Stanford Dogs两个数据集上超越了当前表现最好的方法,在Stanford Cars和FGVC-Aircraft数据集的表现也接近当前主流方法。结论 本文方法着重提升注意力机制提取特征的能力,得到高效的目标特征表示,可用于细粒度图像分类和特征提取相关的计算机视觉任务。  相似文献   

3.
细粒度图像分类任务由于自身存在的细微的类间差别和巨大的类内差别使其极具挑战性,为了更好地学习细粒度图像的潜在特征,该算法将知识蒸馏引入到细粒度图像分类任务中,提出基于知识蒸馏与目标区域选取的细粒度图像分类方法(TRS-DeiT),能使其兼具CNN模型和Transformer模型的各自优点。此外,TRS-DeiT的新型目标区域选取模块能够获取最具区分性的区域;为了区分任务中的易混淆类,引入对抗损失函数计算不同类别图像间的相似度。最终,在三个经典细粒度数据集CUB-200-2011、Stanford Cars和Stanford Dogs上进行训练测试,分别达到90.8%、95.0%、95.1%的准确率。实验结果表明,该算法相较于传统模型具有更高的准确性,通过可视化结果进一步证实该算法的注意力主要集中在识别对象,从而使其更擅长处理细粒度图像分类任务。  相似文献   

4.
细粒度图像识别具有类内差异大、类间差异小的特点,在智能零售、生物多样性检测和智慧交通等领域中有着广阔的应用场景.提取到判别性强的多粒度特征是提升细粒度图像识别精度的关键,而已有工作大多只在单一层次进行知识获取,忽略了多层次信息交互对于提取鲁棒性特征的有效性.另外一些工作通过引入注意力机制来找到局部判别区域,但这不可避免地增加了网络复杂度.为了解决这些问题,提出了多层次知识自蒸馏联合多步骤训练的细粒度图像识别(multi-level knowledge self-distillation with multi-step training for fine-grained image recognition, MKSMT)模型.该模型首先在网络浅层进行特征学习,然后在深层网络再次进行特征学习,并利用知识自蒸馏将深层网络知识迁移至浅层网络中,优化后的浅层网络又能帮助深层网络提取到更鲁棒的特征,进而提高整个模型的性能.实验结果表明,MKSMT在CUB-200-2011、 NA-Birds和Stanford Dogs这3个公开细粒度图像数据集上分别达到了92.8%、 92.6%和91.1%的分类...  相似文献   

5.
小样本细粒度图像识别是深度学习领域中一个热门的研究课题,其基本任务是在学习有限数量样本的情况下识别出某一大类下的子类别的图像。得益于卷积神经网络的快速发展,小样本细粒度图像识别在精度方面取得了显著的成果,但其性能仍受限于同一子类图像间的高方差以及不同分类任务中判别性特征的差异性。针对上述问题,提出了一种基于判别性特征增强的小样本细粒度图像识别算法(DFENet)。DFENet设计了对称注意力模块来增强类内视觉一致性学习,从而减少背景的影响,提高同类样本之间共享的特征表示的权重。此外,DFENet引入通道维度的判别性特征增强模块,利用支持集样本中同类样本内和不同类样本之间的通道关系进一步挖掘适合于当前任务的判别性特征,以提高识别准确率。在三个经典的细粒度数据集CUB-200-2011,Stanford Dogs, Stanford Cars上进行了广泛的实验。实验结果表明,该方法均取得了有竞争性的结果。  相似文献   

6.
由于高类内和低类间方差,细粒度图像识别成为计算机视觉领域一项极具挑战性的研究课题。经典的细粒度图像识别方法采用单输入单输出的方式,限制了模型从成对图像中对比学习推理的能力。受人类在判别细粒度图像时的行为启发,提出了深度成对特征对比交互细粒度分类算法(PCI),深度对比寻找图像对之间的共同、差异特征,有效提升细粒度识别精度。首先,PCI建立正负对输入策略,提取细粒度图像的成对深度特征;其次,建立深度成对特征交互机制,实现成对深度特征的全局信息学习、深度对比以及深度自适应交互;最后,建立成对特征对比学习机制,通过对比学习约束成对深度细粒度特征,增大正对之间的相似性并减小负对之间的相似性。在流行的细粒度数据集CUB-200-2011、Stanford Dogs、Stanford Cars以及FGVC-Aircraft上开展了广泛的实验,实验结果表明PCI的性能优于当前最先进的方法。  相似文献   

7.
时序数据存在时序性,并且其短序列的特征存在重要程度差异性。针对时序数据特征,提出一种基于注意力机制的卷积神经网络(CNN)联合长短期记忆网络(LSTM)的神经网络预测模型,融合粗细粒度特征实现准确的时间序列预测。该模型由两部分构成:基于注意力机制的CNN,在标准CNN网络上增加注意力分支,以抽取重要细粒度特征;后端为LSTM,由细粒度特征抽取潜藏时序规律的粗粒度特征。在真实的热电联产供热数据上的实验表明,该模型比差分整合移动平均自回归、支持向量回归、CNN以及LSTM模型的预测效果更好,对比目前企业将预定量作为预测量的方法,预测缩放误差平均值(MASE)与均方根误差(RMSE)指标分别提升了89.64%和61.73%。  相似文献   

8.
由于类内差异大且类间差异小,因此细粒度图像分类极具挑战性。鉴于深层特征具有很强的特征表示能力,而中层特征又能有效地补充全局特征在图像细粒度识别中的缺失信息,因此,为了充分利用卷积层的特征,本文提出细粒度图像分类的通道自适应判别性学习方法:首先在通道方向上聚集中级特征以获取目标位置;然后对通过感兴趣区域特征交互级联得到的信息进行分类;最后进行端到端的训练,无需任何边界框和零件注释。在CUB-200-2011、Stanford Cars和FGVC-Aircraft这3个公共数据集上开展大量实验,与其他方法相比,本文方法既可以保持简单性和推理效率又可提升分类准确度。  相似文献   

9.
在细粒度视觉识别领域,由于高度近似的类别之间差异细微,图像细微特征的精确提取对识别的准确率有着至关重要的影响。现有的相关热点研究算法中使用注意力机制提取类别特征已经成为一种趋势,然而这些算法忽略了不明显但可区分的细微部分特征,并且孤立了对象不同判别性区域之间的特征关系。针对这些问题,提出了基于中层细微特征提取与多尺度特征融合的图像细粒度识别算法。首先,利用通道与位置信息融合中层特征的权重方差度量提取图像显著特征,之后通过通道平均池化获得掩码矩阵抑制显著特征,并增强其他判别性区域细微特征的提取;然后,通过通道权重信息与像素互补信息获得通道与像素多尺度融合特征,以增强不同判别性区域特征的多样性与丰富性。实验结果表明,所提算法在数据集CUB-200-2011上达到89.52%的Top-1准确率、98.46%的Top-5准确率;在Stanford Cars数据集上达到94.64%的Top-1准确率、98.62%的Top-5准确率;在飞行器细粒度分类(FGVCAircraft)数据集上达到93.20%的Top-1准确率、97.98%的Top-5准确率。与循环协同注意力特征学习网络PCA-Net(...  相似文献   

10.
针对复杂背景近岸舰船检测与细粒度识别难题,提出了一种基于深度学习的新型端到端目标识别框架,可有效检测与识别任意方向的舰船目标。针对舰船目标短边尺度较小问题,提出了角度致密化的预设框设置方法,提高了候选区域生成时的召回率;采用改进方位敏感型区域插值池化,减少了坐标量化误差,实现了舰船局部区域特征的精确建模;利用注意力机制下的全局与局部特征区域级融合方法,提升了区域特征的类别判别能力,解决了细粒度舰船识别难题;针对舰船样本稀缺性问题,使用迁移学习提升了模型性能。构建了一个含有25类近岸舰船目标的细粒度数据集,与传统学习模型相比召回率提高2%,平均识别精度提高3%,对复杂背景下目标识别具有重要实用价值。  相似文献   

11.
细粒度视觉分类核心是提取图像判别式特征.目前大多数方法引入注意力机制,使网络聚焦于目标物体的重要区域.然而,这种方法只定位到目标物体的显著特征,无法囊括全部判别式特征,容易混淆具有相似特征的不同类别.因此,文中提出基于融合池化和注意力增强的细粒度视觉分类网络,旨在获得全面判别式特征.在网络末端,设计融合池化模块,包括全局平均池化、全局top-k池化和两者融合的三分支结构,获得多尺度判别式特征.此外,提出注意力增强模块,在注意力图的引导下通过注意力网格混合模块和注意力裁剪模块,获得2幅更具判别性的图像参与网络训练.在细粒度图像数据集CUB-200-2011、Stanford Cars、FGVC-Aircraft上的实验表明文中网络准确率较高,具有较强的竞争力.  相似文献   

12.
曾涛  薛峰  杨添 《计算机工程》2022,48(12):281
针对现实场景下因受到摄像机视角变化、行人姿态变化、物体遮挡、图像低分辨率、行人图片未对齐等因素影响导致行人判别性特征难以获取的问题,设计混合池通道注意模块(HPCAM)和全像素空间注意力模块(FPSAM),并基于这两种注意力模块提出一种通道与空间双重注意力网络(CSDA-Net)。HPCAM模块能够在通道维度上抑制无用信息的干扰,增强显著性特征的表达,以提取得到判别性强的行人特征。FPSAM模块在空间维度上增强行人特征的判别能力,从而提高行人重识别的准确率。通过在传统行人重识别深度模型框架中分阶段融入HPCAM模块和FPSAM模块,获得由粗糙到细粒度的注意力特征。实验结果表明,CSDA-Net网络在行人重识别主流数据集CUHK03、DukeMTMC-ReID和Market1501上的Rank-1准确率分别为78.3%、91.3%和96.0%,平均精度均值(mAP)分别为80.0%、82.1%和90.4%,与MGN网络相比,Rank-1准确率分别提升14.9、2.6和0.3个百分点,mAP分别提升13.7、3.7和3.5个百分点,能够提取更具鲁棒性和判别性的表达特征。  相似文献   

13.
谭润  叶武剑  刘怡俊 《计算机工程》2022,48(2):237-242+249
细粒度图像分类旨在对属于同一基础类别的图像进行更细致的子类划分,其较大的类内差异和较小的类间差异使得提取局部关键特征成为关键所在。提出一种结合双语义数据增强与目标定位的细粒度图像分类算法。为充分提取具有区分度的局部关键特征,在训练阶段基于双线性注意力池化和卷积块注意模块构建注意力学习模块和信息增益模块,分别获取目标局部细节信息和目标重要轮廓这2类不同语义层次的数据,以双语义数据增强的方式提高模型准确率。同时,在测试阶段构建目标定位模块,使模型聚焦于分类目标整体,从而进一步提高分类准确率。实验结果表明,该算法在CUB-200-2011、FGVC Aircraft和Stanford Cars数据集中分别达到89.5%、93.6%和94.7%的分类准确率,较基准网络Inception-V3、双线性注意力池化特征聚合方式以及B-CNN、RA-CNN、MA-CNN等算法具有更好的分类性能。  相似文献   

14.
针对现代战场环境信息复杂化、多样化,战场目标具有隐蔽性、欺骗性等各种问题,提出一种基于双向门控循环单元(BiGRU)的战场目标意图识别方法。为了使网络更好的关注信息重点,提高目标意图识别的准确率,在BiGRU中加入了注意力机制,注意力机制可以使模型更加关注与预测结果有紧密联系的部分,忽略相关性不高的地方,同时采用Zoneout机制来减少网络过拟合。实验结果得出,结合注意力机制的BiGRU战场目标意图判别方法准确率高达97.1%,比基础GRU算法准确率提高12%。  相似文献   

15.
从图像中挖掘人物间的社会关系在刑侦、隐私防护等领域有重要的作用。现有的图建模方法通过创建人际关系图或构建知识图谱来学习人物关系,取得了良好的效果。但基于图卷积神经网络(GCN)的方法一定程度上忽略了不同特征对特定关系的不同程度的重要性。针对上述问题,提出了一种基于图注意力的双分支社会关系识别模型(GAT-DBSR),第一个分支提取人物区域以及图像全局特征作为节点,核心是通过图注意力网络和门控机制去更新这些节点以学习人物关系的特征表示。第二个分支通过卷积神经网络提取场景特征来增强对人物关系的识别。最终对两个分支的特征进行融合并分类得到所有的社会关系。该模型在PISC数据集的细粒度关系识别任务上的mAP达到了74.4%,相比基线模型提高了1.2%。在PIPA数据集上的关系识别准确率也有一定的提升。实验结果表明了该模型具有更优越的效果。  相似文献   

16.
细粒度图像分类任务的关键在于获取精细的局部特征,为了充分利用数据价值,提出一种面向视觉注意力的数据增强方法,基于类激活映射图(class activation mapping,CAM)生成具有针对性的扩充图像,进而帮助细粒度分类.根据CAM对输入图像进行注意力区域裁剪和放大;构造一个流场网格对原图进行采样以夸张该区域,裁剪与夸张后的2种扩充数据能够引导模型学习更细微的特征差异;遮挡图像关键区域,从而促使模型学习其他有效特征.该方法只需要图像级标签,无需边界框和部位标注,可以在不引入其他辅助网络的情况下直接进行端到端训练.在3个公开数据集CUB-200-2011,FGVC-Aircraft和Stanford Cars上的实验结果表明,模型特征提取能力得到有效提升,且Top-1准确率指标优于部分现有先进算法.  相似文献   

17.
跨模态行人重识别主要面临 2 个问题:①成像机制不同所导致的红外图像和可见光图像之间的 模态差异;②图像特征的身份判别性不足导致的类内差异。针对上述 2 个问题,基于残差增强注意力的跨模态 行人重识别方法被提出用来提高行人特征的模态不变性和身份判别性。首先,设计网络浅层参数独立、网络深 层参数共享的双路卷积神经网络作为骨干网络。然后,分析现有注意力机制存在的全局弱化,设计了残差增强 注意力方法解决该问题,提升注意力机制的性能,将其分别应用在网络浅层的通道维度和深层的空间位置上, 提升模型对于模态差异的消除能力和行人特征的身份鉴别能力。在 SYSU-MM01 和 RegDB 2 个数据集上进行 的实验证明了该方法的先进性,大量的对比实验也充分证明本文方法的有效性。  相似文献   

18.
针对细粒度图像分类任务中难以对图中具有鉴别性对象进行有效学习的问题,本文提出了一种基于注意力机制的弱监督细粒度图像分类算法.该算法能有效定位和识别细粒度图像中语义敏感特征.首先在经典卷积神经网络的基础上通过线性融合特征得到对象整体信息的表达,然后通过视觉注意力机制进一步提取特征中具有鉴别性的细节部分,获得更完善的细粒度特征表达.所提算法实现了线性融合和注意力机制的结合,可看作是多网络分支合作训练共同优化的网络模型,从而让网络模型对整体信息和局部信息都有更好的表达能力.在3个公开可用的细粒度识别数据集上进行了验证,实验结果表明,所提方法有效性均优于基线方法,且达到了目前先进的分类水平.  相似文献   

19.
针对细粒度车型识别率低,车型区别主要集中在鉴别性部件上以及深度学习不能有效对部件进行关注的问题,提出一种基于部件关注DenseNet(part-focused DenseNet, PF-DenseNet)的细粒度车型识别模型。该模型可以基于细粒度车型的车灯、车标等区分性部件进行有效分类,通过处理层(process layer)对车型部件信息反复加强提取并进行最大池化下采样,获取更多的车型部件信息,然后通过密集卷积对特征通道进一步复用提取,密集卷积前嵌入独立组件(independent component, IC)层,获得相对独立的神经元,增强网络独立性,提高模型的收敛极限。实验结果表明,该模型在Stanford cars-196数据集上的识别准确率、查全率和F1分别达到95.0%、94.9%和94.8%,高于经典卷积神经网络,并具有较小的参数量,与其他方法相比实现了最高准确率,验证了该车型识别模型的有效性。  相似文献   

20.
针对现有基于深度学习的三维模型识别方法缺乏结合三维模型的上下文细粒度局部特征,可能造成几何形状极其相似,局部细节信息略有不同的类识别混淆的问题,提出一种基于深度图注意力卷积神经网络的三维模型识别方法。首先,通过引入邻域选择机制挖掘三维模型的细粒度局部特征。其次,通过空间上下文编码机制捕捉多尺度空间上下文信息,且与细粒度局部特征相互补偿以增强特征的完备性。最后,采用一种多头部机制,使图注意力卷积层聚合多个单头部的特征以增强特征的丰富性。此外,设计选择性丢弃算法,根据度量权重值对神经元重要性进行排序,智能地丢弃重要性较低的神经元来防止网络过拟合。算法在ModelNet40数据集上的三维模型识别准确率达到了92.6%,且网络复杂度较低,在三维模型识别准确率和网络复杂度之间达到最佳平衡,优于当前主流方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号