首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 234 毫秒
1.
基于中心邻域的对比度计算在基于深度学习的算法中应用甚少.因此,文中提出基于深度中心邻域金字塔结构的显著目标检测方法.结合中心邻域对比度机制和卷积神经网络,用于显著目标检测.首先为网络的各阶段引入深层语义特征.再利用扩张卷积建立中心邻域金字塔,捕获不同级别的对比度信息,生成多尺度注意力子图.最后进一步融合所有注意力子图,得到最终的显著目标检测结果.在4个公用数据集上的对比实验表明,文中算法具有较低的平均绝对误差和较高的F测度值.  相似文献   

2.
针对目前基于深度卷积神经网络的显著性检测算法存在对复杂场景图像目标检测不完整、背景噪声多的问题,提出一种深度特征导向显著性检测算法。该算法是基于现有底层特征与深度卷积特征融合模型(ELD)的改进,网络模型包含基础特征提取、高层语义特征跨层级引导传递两个部分。首先,根据不同层级卷积特征的差异性,构建跨层级特征联合的高层语义特征引导模型;然后,用改进的网络模型生成初始显著图,利用高层语义特征引导的方式进行显著性聚类传播;最后,用完全联系条件随机场对聚类传播的结果进行优化,使其能够获取更多结构边缘信息和降低噪声并生成完整显著图。在ECSSD上和DUT-ORMON两个数据集上进行实验测试,实验结果表明,所提算法的准确率和召回率(PR)优于ELD模型,其F-measure(F)值分别提升了7.5%和11%,平均绝对误差(MAE)值分别降低了16%和15%,说明了所提算法模型能够在目标识别、模式识别、图像索引等复杂图像场景应用领域得到更加鲁棒的结果。  相似文献   

3.
何韩森  孙国梓 《计算机应用》2020,40(8):2189-2193
针对假新闻内容检测中分类算法模型的检测性能与泛化性能无法兼顾的问题,提出了一种基于特征聚合的假新闻检测模型CCNN。首先,通过双向长短时循环神经网络提取文本的全局时序特征,并采用卷积神经网络(CNN)提取窗口范围内的词语或词组特征;然后,在卷积神经网络池化层之后,采用基于双中心损失训练的特征聚合层;最后,将双向长短时记忆网络(Bi-LSTM)和CNN的特征数据按深度方向拼接成一个向量之后提供给全连接层,采用均匀损失函数uniform-sigmoid训练模型后输出最终的分类结果。实验结果表明,该模型的F1值为80.5%,在训练集和验证集上的差值为1.3个百分点;与传统的支持向量机(SVM)、朴素贝叶斯(NB)和随机森林(RF)模型相比,所提模型的F1值提升了9~14个百分点;与长短时记忆网络(LSTM)、快速文本分类(FastText)等神经网络模型相比,所提模型的泛化性能提升了1.3~2.5个百分点。由此可见,所提模型能够在提高分类性能的同时保证一定的泛化能力,提升整体性能。  相似文献   

4.
目前基于深度学习算法的目标检测技术在合成孔径雷达(SAR)图像船舶检测中取得了显著的成果,然而仍存在着小目标船舶和近岸密集排列船舶检测效果差的问题。针对上述问题,提出了基于改进RetinaNet的船舶检测算法。在传统RetinaNet算法的基础上,首先,将特征提取网络残差块中的卷积改进为分组卷积,以增加网络宽度,从而提高网络的特征提取能力;其次,在特征提取网络的后两个阶段加入注意力机制,让网络更加专注于目标区域,从而提升目标检测能力;最后,将软非极大值抑制(Soft-NMS)加入到算法中,降低算法对于近岸密集排列船舶检测的漏检率。在高分辨率SAR图像数据集(HRSID)和SAR船舶检测数据集(SSDD)上的实验结果表明,所提改进算法对于小目标船舶和近岸船舶的检测效果得到了有效提升,与当前优秀的目标检测模型Faster R-CNN、YOLOv3和CenterNet等相比,在检测精度和速度上更加优越。  相似文献   

5.
伪装目标检测(COD)旨在检测隐藏在复杂环境中的目标。现有COD算法在结合多层次特征时,忽略了特征的表达和融合方式对检测性能的影响。为此,提出一种基于递进式特征增强聚合的COD算法。首先,通过主干网络提取多级特征;然后,为了提高特征的表达能力,使用由特征增强模块(FEM)构成的增强网络对多层次特征进行增强;最后,在聚合网络中设计邻近聚合模块(AAM)实现相邻特征之间的信息融合,以突显伪装目标区域的特征,并提出新的递进式聚合策略(PAS)通过渐进的方式聚合邻近特征,从而在实现多层特征有效融合的同时抑制噪声。在3个公开数据集上的实验表明,所提算法相较于12种最先进的算法在4个客观评价指标上均取得最优表现,尤其是在COD10K数据集上所提算法的加权的F测评法和平均绝对误差(MAE)分别达到了0.809和0.037。由此可见,所提算法在COD任务上拥有较优的性能。  相似文献   

6.
针对无纺布生产过程中产生的浆丝缺陷对比度较低,以及传统图像处理方法对其检测效果较差的问题,提出了一种基于卷积神经网络(CNN)的无纺布低对比度浆丝缺陷检测方法。首先,对采集到的无纺布图像进行预处理以构建浆丝缺陷数据集;然后,利用改进的卷积神经网络以及多尺度特征采样融合模块构造编码器以提取低对比度浆丝缺陷的语义信息,并在解码器中采用跳跃连接进行多尺度特征融合来优化上采样模块;最后,通过所构建的数据集训练网络模型,从而实现低对比度浆丝缺陷的检测。实验结果表明,所提方法可以有效定位并检测出无纺布上的低对比度浆丝缺陷,其平均交并比(MIoU)、类别平均像素准确率(MPA)分别可以达到77.32%和86.17%,单张样本平均检测时间为50 ms,能够满足工业生产的要求。  相似文献   

7.
针对无纺布生产过程中产生的浆丝缺陷对比度较低,以及传统图像处理方法对其检测效果较差的问题,提出了一种基于卷积神经网络(CNN)的无纺布低对比度浆丝缺陷检测方法。首先,对采集到的无纺布图像进行预处理以构建浆丝缺陷数据集;然后,利用改进的卷积神经网络以及多尺度特征采样融合模块构造编码器以提取低对比度浆丝缺陷的语义信息,并在解码器中采用跳跃连接进行多尺度特征融合来优化上采样模块;最后,通过所构建的数据集训练网络模型,从而实现低对比度浆丝缺陷的检测。实验结果表明,所提方法可以有效定位并检测出无纺布上的低对比度浆丝缺陷,其平均交并比(MIoU)、类别平均像素准确率(MPA)分别可以达到77.32%和86.17%,单张样本平均检测时间为50 ms,能够满足工业生产的要求。  相似文献   

8.
目的 在基于深度学习的目标检测模型中,浅层特征图包含更多细节但缺乏语义信息,深层特征图则相反,为了利用不同深度特征图的优势,并在此基础上解决检测目标的多尺度问题,本文提出基于卷积核金字塔和空洞卷积的单阶段目标检测模型。方法 所提模型采用多种方式融合特征信息,先使用逐像素相加方式融合多层不同大小的特征图信息,然后在通道维度拼接不同阶段的特征图,形成具有丰富语义信息和细节信息的信息融合特征层作为模型的预测层。模型在锚框机制中引入卷积核金字塔结构,以解决检测目标的多尺度问题,采用空洞卷积减少大尺寸卷积核增加的参数量,合理地降低锚框数量。结果 实验结果表明,在PASCAL VOC2007测试数据集上,所提检测框架在300×300像素的输入上检测精度达到79.3% mAP(mean average precision),比SSD(single shot multibox detector)高1.8%,比DSSD(deconvolutional single shot detector)高0.9%。在UCAS-AOD遥感数据测试集上,所提模型的检测精度分别比SSD和DSSD高2.8%和1.9%。在检测速度上,所提模型在Titan X GPU上达到21帧/s,速度超过DSSD。结论 本文模型提出在两个阶段融合特征信息并改进锚框机制,不仅具有较快的检测速度和较高的精度,而且较好地解决了小目标以及重叠目标难以被检出的问题。  相似文献   

9.
陆金刚  张莉 《计算机应用》2019,39(12):3445-3449
针对尺度和视角变化导致的监控视频和图像中的人数估计性能差的问题,提出了一种基于多尺度多列卷积神经网络(MsMCNN)的密集人群计数模型。在使用MsMCNN进行特征提取之前,使用高斯滤波器对数据集进行处理得到图像的真实密度图,并且对数据集进行数据增强。MsMCNN以多列卷积神经网络的结构为主干,首先从具有多尺度的多个列中提取特征图;然后,用MsMCNN在同一列上连接具有相同分辨率的特征图,以生成图像的估计密度图;最后,对估计密度图进行积分来完成人群计数的任务。为了验证所提模型的有效性,在Shanghaitech数据集和UCF_CC_50数据集上进行了实验,与经典模型Crowdnet、多列卷积神经网络(MCNN)、级联多任务学习(CMTL)方法、尺度自适应卷积神经网络(SaCNN)相比,所提模型在Shanghaitech数据集Part_A和UCF_CC_50数据集上平均绝对误差(MAE)分别至少减小了10.6和24.5,均方误差(MSE)分别至少减小了1.8和29.3;在Shanghaitech数据集Part_B上也取得了较好的结果。MsMCNN更注重特征提取过程中的浅层特征的结合以及多尺度特征的结合,可以有效减少尺度和视角变化带来的精确度偏低的影响,提升人群计数的性能。  相似文献   

10.
近年来,深度学习方法被广泛用来解决车辆检测问题并取得了显著的成果,然而,当车辆尺寸较小时,当前深度学习算法的检测丢失率仍然很高.为了解决这个问题,本文提出了一种基于组合目标框提取结构的扩张全卷积神经网络(Dilated Fully Convolutional Network with Grouped Proposals,DFCN-GP).具体提出了一种结合低层特征和高层特征的组合网络模型用于生成目标框,其中低层特征对小目标更加敏感.此外,为保留更多的细节信息,基于扩张卷积思想,增加了网络最后一层卷积层的大小和感受野,用于目标框的提取和车辆检测.通过控制变量的对比试验,对基于组合方式的目标框提取网络和扩张卷积层的有效性进行了验证.本文提出的算法模型在公开数据集UA-DETRAC上性能优异.  相似文献   

11.
陈文兵  鞠虎  陈允杰 《计算机应用》2017,37(7):2071-2077
针对"中心-周围"的显著对象探测方法频繁出现探测或提取对象不完整、边界不平滑以及其9级金字塔下采样的冗余问题,提出一种基于倒数函数-谱残差(RFSR)的显著对象探测方法。首先,利用灰度图像与其对应的高斯低通滤波的差代替"中心-周围"方法中灰度图像标准化,并减少高斯金字塔至6级以降低冗余;其次,利用倒数函数滤波器代替Gabor滤波器提取局部方向信息;接着,利用谱残差方法提取图像的谱特征;最后,将这三个特征经过适当融合生成最终显著图。在两个常用基准数据集上的实验结果表明,所提方法在准确率(precision)、召回率(recall)及F-measure等指标上均比"中心-周围"及谱残差模型有明显提高,其为进一步图像分析、对象识别及基于显著视觉关注的图像检索等理论及应用研究奠定了基础。  相似文献   

12.
针对当前基于深度学习的显著性对象检测算法不能准确保存对象边缘的区域,从而导致检测出的显著性对象边缘区域模糊、准确率不高的问题,提出了一种基于多任务深度学习模型的显著性对象检测算法。首先,基于深度卷积神经网络(CNN),训练一个多任务模型分别学习显著性对象的区域和边缘的特征;然后,利用检测到的边缘生成大量候选区域,再结合显著性区域检测的结果对候选区域进行排序和计算权值;最后提取出完整的显著性图。在三个常用标准数据集上的实验结果表明,所提方法获得了更高的准确率,其中F-measure比基于深度学习的算法平均提高了1.9%,而平均绝对误差(MAE)平均降低了12.6%。  相似文献   

13.
目的 传统显著性检测模型大多利用手工选择的中低层特征和先验信息进行物体检测,其准确率和召回率较低,随着深度卷积神经网络的兴起,显著性检测得以快速发展。然而,现有显著性方法仍存在共性缺点,难以在复杂图像中均匀地突显整个物体的明确边界和内部区域,主要原因是缺乏足够且丰富的特征用于检测。方法 在VGG(visual geometry group)模型的基础上进行改进,去掉最后的全连接层,采用跳层连接的方式用于像素级别的显著性预测,可以有效结合来自卷积神经网络不同卷积层的多尺度信息。此外,它能够在数据驱动的框架中结合高级语义信息和低层细节信息。为了有效地保留物体边界和内部区域的统一,采用全连接的条件随机场(conditional random field,CRF)模型对得到的显著性特征图进行调整。结果 本文在6个广泛使用的公开数据集DUT-OMRON(Dalian University of Technology and OMRON Corporation)、ECSSD(extended complex scene saliency dataset)、SED2(segmentation evalution database 2)、HKU、PASCAL-S和SOD(salient objects dataset)上进行了测试,并就准确率—召回率(precision-recall,PR)曲线、F测度值(F-measure)、最大F测度值、加权F测度值和均方误差(mean absolute error,MAE)等性能评估指标与14种最先进且具有代表性的方法进行比较。结果显示,本文方法在6个数据集上的F测度值分别为0.696、0.876、0.797、0.868、0.772和0.785;最大F测度值分别为0.747、0.899、0.859、0.889、0.814和0.833;加权F测度值分别为0.656、0.854、0.772、0.844、0.732和0.762;MAE值分别为0.074、0.061、0.093、0.049、0.099和0.124。无论是前景和背景颜色相似的图像集,还是多物体的复杂图像集,本文方法的各项性能均接近最新研究成果,且优于大多数具有代表性的方法。结论 本文方法对各种场景的图像显著性检测都具有较强的鲁棒性,同时可以使显著性物体的边界和内部区域更均匀,检测结果更准确。  相似文献   

14.
视觉显著性物体检测是对人类视觉和认知系统的模拟,而深度学习则是对人类大脑计算方式的模拟,将两者有机结合可以有效推动计算机视觉的发展。视觉显著性物体检测的任务是从图像中定位并提取具有明确轮廓的显著性物体实例。随着深度学习的发展,视觉显著性物体检测的精度和效率都得到巨大提升,但仍然面临改进主流算法性能、减少对像素级标注样本的依赖等主要挑战。针对上述挑战,本文从视觉显著性物体检测思想与深度学习方法融合策略的角度对相关论述进行分类总结。1)分析传统显著性物体检测方法带来的启示及其缺点,指出视觉显著性物体检测的核心思路为多层次特征的提取、融合与修整;2)从改进特征编码方式与信息传递结构、提升边缘定位精度、改善注意力机制、提升训练稳定性和控制噪声的角度对循环卷积神经网络、全卷积神经网络和生成对抗网络3种主流算法的性能提升进行分析,从优化弱监督样本处理模块的角度分析了减少对像素级标注样本依赖的方法;3)对协同显著性物体检测、多类别图像显著性物体检测以及未来的研究问题和方向进行介绍,并给出了可能的解决思路。  相似文献   

15.
目的 全卷积模型的显著性目标检测大多通过不同层次特征的聚合实现检测,如何更好地提取和聚合特征是一个研究难点。常用的多层次特征融合策略有加法和级联法,但是这些方法忽略了不同卷积层的感受野大小以及产生的特征图对最后显著图的贡献差异等问题。为此,本文结合通道注意力机制和空间注意力机制有选择地逐步聚合深层和浅层的特征信息,更好地处理不同层次特征的传递和聚合,提出了新的显著性检测模型AGNet(attention-guided network),综合利用几种注意力机制对不同特征信息加权解决上述问题。方法 该网络主要由特征提取模块(feature extraction module, FEM)、通道—空间注意力融合模块(channel-spatial attention aggregation module, C-SAAM)和注意力残差细化模块(attention residual refinement module,ARRM)组成,并且通过最小化像素位置感知(pixel position aware, PPA)损失训练网络。其中,C-SAAM旨在有选择地聚合浅层的边缘信息以及深层抽象的语义特征,利用通道注意力和空间注意力避免融合冗余的背景信息对显著性映射造成影响;ARRM进一步细化融合后的输出,并增强下一个阶段的输入。结果 在5个公开数据集上的实验表明,AGNet在多个评价指标上达到最优性能。尤其在DUT-OMRON(Dalian University of Technology-OMRON)数据集上,F-measure指标相比于排名第2的显著性检测模型提高了1.9%,MAE(mean absolute error)指标降低了1.9%。同时,网络具有不错的速度表现,达到实时效果。结论 本文提出的显著性检测模型能够准确地分割出显著目标区域,并提供清晰的局部细节。  相似文献   

16.
近年来, RGB-D显著性检测方法凭借深度图中丰富的几何结构和空间位置信息, 取得了比RGB显著性检测模型更好的性能, 受到学术界的高度关注. 然而, 现有的RGB-D检测模型仍面临着持续提升检测性能的需求. 最近兴起的Transformer擅长建模全局信息, 而卷积神经网络(CNN)擅长提取局部细节. 因此, 如何有效结合CNN和Transformer两者的优势, 挖掘全局和局部信息, 将有助于提升显著性目标检测的精度. 为此, 提出一种基于跨模态交互融合与全局感知的RGB-D显著性目标检测方法, 通过将Transformer网络嵌入U-Net中, 从而将全局注意力机制与局部卷积结合在一起, 能够更好地对特征进行提取. 首先借助U-Net编码-解码结构, 高效地提取多层次互补特征并逐级解码生成显著特征图. 然后, 使用Transformer模块学习高级特征间的全局依赖关系增强特征表示, 并针对输入采用渐进上采样融合策略以减少噪声信息的引入. 其次, 为了减轻低质量深度图带来的负面影响, 设计一个跨模态交互融合模块以实现跨模态特征融合. 最后, 5个基准数据集上的实验结果表明, 所提算法与其他最新的算法相比具有显著优势.  相似文献   

17.
目的 显著性目标检测是机器视觉应用的基础,然而目前很多方法在显著性物体与背景相似、低光照等一些复杂场景得到的效果并不理想。为了提升显著性检测的性能,提出一种多支路协同的RGB-T(thermal)图像显著性目标检测方法。方法 将模型主体设计为两条主干网络和三条解码支路。主干网络用于提取RGB图像和Thermal图像的特征表示,解码支路则分别对RGB特征、Thermal特征以及两者的融合特征以协同互补的方式预测图像中的显著性物体。在特征提取的主干网络中,通过特征增强模块实现多模图像的融合互补,同时采用适当修正的金字塔池化模块,从深层次特征中获取全局语义信息。在解码过程中,利用通道注意力机制进一步区分卷积神经网络(convolutional neural networks,CNN)生成的特征在不同通道之间对应的语义信息差异。结果 在VT821和VT1000两个数据集上进行测试,本文方法的最大F-measure值分别为0.843 7和0.880 5,平均绝对误差(mean absolute error,MAE)值分别为0.039 4和0.032 2,相较于对比方法,提升了整体检测性能。结论 通过对比实验表明,本文提出的方法提高了显著性检测的稳定性,在一些低光照场景取得了更好效果。  相似文献   

18.
伪装目标检测(COD)旨在精确且高效地检测出与背景高度相似的伪装物体, 其方法可为物种保护、医学病患检测和军事监测等领域提供助力, 具有较高的实用价值. 近年来, 采用深度学习方法进行伪装目标检测成为一个比较新兴的研究方向. 但现有大多数COD算法都是以卷积神经网络(CNN)作为特征提取网络, 并且在结合多层次特征时, 忽略了特征表示和融合方法对检测性能的影响. 针对基于卷积神经网络的伪装目标检测模型对被检测目标的全局特征提取能力较弱问题, 提出一种基于Transformer的跨尺度交互学习伪装目标检测方法. 该模型首先提出了双分支特征融合模块, 将经过迭代注意力的特征进行融合, 更好地融合高低层特征; 其次引入了多尺度全局上下文信息模块, 充分联系上下文信息增强特征; 最后提出了多通道池化模块, 能够聚焦被检测物体的局部信息, 提高伪装目标检测准确率. 在CHAMELEON、CAMO以及COD10K数据集上的实验结果表明, 与当前主流的伪装物体检测算法相比较, 该方法生成的预测图更加清晰, 伪装目标检测模型能取得更高精度.  相似文献   

19.
目的 为了得到精确的显著对象分割结果,基于深度学习的方法大多引入注意力机制进行特征加权,以抑制噪声和冗余信息,但是对注意力机制的建模过程粗糙,并将所有特征均等处理,无法显式学习不同通道以及不同空间区域的全局重要性。为此,本文提出一种基于深度聚类注意力机制(deep cluster attention,DCA)的显著对象检测算法DCANet (DCA network),以更好地建模特征级别的像素上下文关联。方法 DCA显式地将特征图分别在通道和空间上进行区域划分,即将特征聚类分为前景敏感区和背景敏感区。然后在类内执行一般性的逐像素注意力加权,并在类间进一步执行语义级注意力加权。DCA的思想清晰易懂,参数量少,可以便捷地部署到任意显著性检测网络中。结果 在6个数据集上与19种方法的对比实验验证了DCA对得到精细显著对象分割掩码的有效性。在各项评价指标上,部署DCA之后的模型效果都得到了提升。在ECSSD (extended cornplex scene saliency dataset)数据集上,DCANet的性能比第2名在F值上提升了0.9%;在DUT-OMRON (Dalian University of Technology and OMRON Corporation)数据集中,DCANet的性能比第2名在F值上提升了0.5%,平均绝对误差(mean absolute error,MAE)降低了3.2%;在HKU-IS数据集上,DCANet的性能比第2名在F值上提升了0.3%, MAE降低了2.8%;在PASCAL (pattern analysis,statistical modeling and computational learning)-S (subset)数据集上,DCANet的性能则比第2名在F值上提升了0.8%,MAE降低了4.2%。结论 本文提出的深度聚类注意力机制通过细粒度的通道划分和空间区域划分,有效地增强了前景敏感类的全局显著得分。与现有的注意力机制相比,DCA思想清晰、效果明显、部署简单,同时也为一般性的注意力机制研究提供了新的可行的研究方向。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号