首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
伪装目标检测(camouflage object detection,COD)在众多领域中有着重要的应用前景。现有COD算法主要针对特征表达以及特征融合的问题进行研究,但是忽略了目标边缘特征的提取和推断目标真实区域的位置。针对上述问题,提出了基于边缘注意力及反向定位的伪装目标检测算法。算法由边缘注意力模块(edge attention module,EAM)、临近融合模块(close integration module,CIM)和反向定位模块(reverse positioning module,RPM)构成。EAM模块用于特征编码阶段,增强从Res2Net-50主干网络提取的多级特征的表达,突出边缘特征。CIM模块促进多层次特征的融合,减少特征信息丢失。使用RPM模块处理来自不同特征金字塔的粗糙预测图,反向定位目标的真实区域,推断出真实目标。在3个公开数据集上的实验表明,该算法优于其他8个最新模型。在COD10K数据集上,平均绝对误差(mean absolute error,MAE)达到了0.038。  相似文献   

2.
伪装目标检测(COD)旨在精确且高效地检测出与背景高度相似的伪装物体, 其方法可为物种保护、医学病患检测和军事监测等领域提供助力, 具有较高的实用价值. 近年来, 采用深度学习方法进行伪装目标检测成为一个比较新兴的研究方向. 但现有大多数COD算法都是以卷积神经网络(CNN)作为特征提取网络, 并且在结合多层次特征时, 忽略了特征表示和融合方法对检测性能的影响. 针对基于卷积神经网络的伪装目标检测模型对被检测目标的全局特征提取能力较弱问题, 提出一种基于Transformer的跨尺度交互学习伪装目标检测方法. 该模型首先提出了双分支特征融合模块, 将经过迭代注意力的特征进行融合, 更好地融合高低层特征; 其次引入了多尺度全局上下文信息模块, 充分联系上下文信息增强特征; 最后提出了多通道池化模块, 能够聚焦被检测物体的局部信息, 提高伪装目标检测准确率. 在CHAMELEON、CAMO以及COD10K数据集上的实验结果表明, 与当前主流的伪装物体检测算法相比较, 该方法生成的预测图更加清晰, 伪装目标检测模型能取得更高精度.  相似文献   

3.
迷彩伪装目标与周围环境高度相似,对迷彩伪装目标的检测任务比普通的检测任务更具挑战性,常规的检测算法对迷彩伪装目标检测任务不完全适用.文中对现有方法进行分析,以YOLO v5算法为基础,提出了一种针对迷彩伪装目标的检测算法.该算法结合注意力机制设计了新的特征提取网络,突出了迷彩伪装目标的特征信息;并且对原有的聚合网络进行了改进,增大了检测的尺度,使用非对称卷积模块强化了目标语义信息.在一种公开的迷彩伪装目标数据集上将该算法与7种算法进行对比,所提算法的mAP值较原始算法提升了4.4%,召回率提升了2.8%,在mAP值方面也比其他算法更具优势,从而验证了所提算法对迷彩伪装目标检测任务的有效性.  相似文献   

4.
针对现有的人体行为识别算法不能充分利用网络多层次时空信息的问题,提出了一种基于三维残差稠密网络的人体行为识别算法。首先,所提算法使用三维残差稠密块作为网络的基础模块,模块通过稠密连接的卷积层提取人体行为的层级特征;其次,经过局部特征聚合自适应方法来学习人体行为的局部稠密特征;然后,应用残差连接模块来促进特征信息流动以及减轻训练的难度;最后,通过级联多个三维残差稠密块实现网络多层局部特征提取,并使用全局特征聚合自适应方法学习所有网络层的特征用以实现人体行为识别。设计的网络算法在结构上增强了对网络多层次时空特征的提取,充分利用局部和全局特征聚合学习到更具辨识力的特征,增强了模型的表达能力。在基准数据集KTH和UCF-101上的大量实验结果表明,所提算法的识别率(top-1精度)分别达到了93.52%和57.35%,与三维卷积神经网络(C3D)算法相比分别提升了3.93和13.91个百分点。所提算法框架有较好的鲁棒性和迁移学习能力,能够有效地处理多种视频行为识别任务。  相似文献   

5.
伪装目标检测(COD)能够在复杂环境下探测出与背景相似度极高的伪装目标,在军事侦查和工业检测等领域具有重要的应用价值。针对现有伪装目标检测方法对区域级特征信息利用率低的问题,提出一种基于区域特征强化的多尺度伪装目标检测网络(RFE-Net)方法,实现可见光条件下伪装目标的准确探测。RFE-Net主要包含弱语义特征增强模块、空间信息交互模块和上下文信息聚合模块。首先弱语义特征增强模块引入了条状池化和非对称卷积,通过优化网络的感受野来动态调整搜索区域,从而加强长距离弱语义特征间的联系;然后将级联的U型块结构组合为空间信息交互模块,消除错误预测样本的干扰;最后设计上下文信息聚合模块,通过充分融合深层语义信息和浅层细粒度信息以精细化处理目标边缘细节,从而提升预测准确度。实验结果表明,所提方法能够加强目标内部的弱语义关联,提高目标与背景的区分度,在最大测试集NC4K上的结构性度量、增强对准度量、加权F1值和平均绝对误差4个指标上均取得最优值,其中结构性度量和平均绝对误差高于第2名方法1.1%和7.7%。  相似文献   

6.
针对传统显著性目标检测方法在检测不同尺度的多个显著性目标方面的不足,提出了一种多尺度特征深度复用的显著性目标检测算法,网络模型由垂直堆叠的双向密集特征聚合模块和水平堆叠的多分辨率语义互补模块组成。首先,双向密集特征聚合模块基于ResNet骨干网络提取不同分辨率语义特征;然后,依次在top-down和bottom-up两条通路上进行自适应融合,以获取不同层次多尺度表征特征;最后,通过多分辨率语义互补模块对两个相邻层次的多尺度特征进行融合,以消除不同层次上特征之间的相互串扰来增强预测结果的一致性。在五个基准数据集上进行的实验结果表明,该方法在Fmax、Sm、MAE最高能达到0.939、0.921、0.028,且检测速率可达74.6 fps,与其他对比算法相比有着更好的检测性能。  相似文献   

7.
针对现有车辆多目标检测与追踪算法在长时间遮挡、光线变化等因素的影响下造成的ID切换和误检问题,提出一种基于深层聚合网络的改进算法,进行车辆检测并完成特征嵌入任务。通过在下采样过程中融合注意力模块进行特征增强,在特征融合过程中使用可变形卷积提高捕获不同尺度目标的能力,采用高斯核函数在目标中心区域提取车辆特征信息用于轨迹关联,实现车辆多目标追踪任务。所提算法在UA-DETRAC数据集上进行实验,其MOTA和IDF1分别达到了79.37%和88.12%,ID切换次数从77下降至36,满足实时检测与追踪的需求。  相似文献   

8.
史文旭  鲍佳慧  姚宇 《计算机应用》2020,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

9.
针对目前我国智能驾驶辅助系统识别道路交通标志检测速度慢、识别精度低等问题,提出一种基于YOLOv3的改进的道路交通标志检测算法。首先,将MobileNetv2作为基础特征提取网络引入YOLOv3以形成目标检测网络模块MN-YOLOv3,在MN-YOLOv3主干网络中引入两条Down-up连接进行特征融合,从而减少检测算法的模型参数,提高了检测模块的运行速度,增强了多尺度特征图之间的信息融合;然后,根据交通标志目标形状的特点,使用K-Means++算法产生先验框的初始聚类中心,并在边界框回归中引入距离交并比(DIOU)损失函数来将DIOU与非极大值抑制(NMS)结合;最后,将感兴趣区域(ROI)与上下文信息通过ROI Align统一尺寸后融合,从而增强目标特征表达。实验结果表明,所提算法性能更好,在长沙理工大学中国交通标志检测(CCTSDB)数据集上的平均准确率均值(mAP)可达96.20%。相较于Faster R-CNN、YOLOv3、Cascaded R-CNN检测算法,所提算法拥有具有更好的实时性和更高的检测精度,对各种环境变化具有更好的鲁棒性。  相似文献   

10.
史文旭  鲍佳慧  姚宇 《计算机应用》2005,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

11.
针对人群计数方法中存在的尺度变化和多层级特征融合不佳的问题,基于U-Net的编码器-解码器网络结构,提出一种自适应特征融合网络,来进行精准的人群计数。提出自适应特征融合模块,根据解码器分支的需要,高效地聚合编码器分支提取的高层语义信息和底层的边缘信息;提出自适应上下文信息提取器,从不同感受野下提取多尺度的上下文信息并自适应加权融合,提高网络对于人头尺度变化的鲁棒性。在ShanghaiTech、UCF-CC-50和UCG-QNRF上的实验表明,与目前主流的人群计数算法相比,该算法具有更强的准确性和鲁棒性。  相似文献   

12.
针对基于孪生网络的小样本调制识别算法存在相似识别类别混淆的问题,提出一种基于网络度量的三分支孪生网络调制识别算法。通过三分支孪生神经网络(Triplet Siamese Neural Network,TSN)将输入三元样本组的原始特征映射至特征子空间中。将正负样本与参考样本特征并联输入至两个参数共享的关系网络(Relation Network,RN),学习一个非线性的度量函数。通过各个类别的特征向量生成各类别的类原型,作为测试过程中的类特征输入。为降低信道噪声和信号接收误差对均值类原型表达的影响,采用局部异常因子算法(Local Outlier Factor,LOF)剔除类别中偏差数据。在公开的调制数据集DeepSig中进行验证,仿真结果表明,TSN-RN-LOF算法模型可以充分利用相似类别之间的差异信息,提取更具辨识度的特征,取得更优的识别性能。  相似文献   

13.
针对机场跑道异物(foreign object debris,FOD)在图像中目标占比小,特征不明显,经常导致误检、漏检的问题,提出一种改进YOLOv5的FOD目标检测算法。改进多尺度融合与检测部分,融合高分辨率特征图增强小目标特征表达,移除大目标检测层以减少网络推理计算量;引入轻量高效的卷积注意力模块(CBAM),从空间与通道两个维度提升模型关注目标特征的能力;在特征融合阶段采用RepVGG模块,提高模型特征融合能力的同时提高了检测精度;采用SIoU Loss作为损失函数,提升了边框回归的速度与精度。在自制FOD数据集上进行对比实验,结果表明:该方法在满足实时性的条件下,实现了95.01%的mAP50、55.79%的mAP50:95,比原算法YOLOv5分别提高了2.78、3.28个百分点,有效解决了传统FOD检测误检、漏检问题,同时与主流目标检测算法相比,提出的改进算法更适用于FOD检测任务。  相似文献   

14.
为避免高密度节点导致的数据冗余和能量浪费,提出一种节能路由算法。将检测区域分割成若干等同的虚拟网格,在每个网格中选取剩余能量最大的节点作为激活节点,源节点的数据先发送到由激活节点构造的数据聚合树上,经数据融合后再传输到Sink节点,从而减少网络中传输的数据量。仿真结果表明,该算法能有效减少冗余数据的能耗,延长网络寿命,且在高密度节点环境下具有良好的适应性。  相似文献   

15.
针对驾驶场景中目标检测卷积神经网络模型检测精度较低的问题,提出一种基于改进RefineDet网络结构的多尺度特征融合目标检测方法。在RefineDet网络结构中嵌入LFIP(Light-weight Featurized Image Pyramid,轻量级特征化的图像金字塔)网络,将LFIP网络生成的多尺度特征图与RefineDet中的ARM(Anchor Refinement Module,锚点框修正模块)输出的主特征图相融合,提升特征层中锚点框初步分类和回归的输出效果,为ODM(Object Detection Module,目标检测模块)模块提供修正的锚点框以便于进一步回归和多类别预测;在RefineDet网络结构中的ODM之后嵌入多分支结构RFB(Receptive Field Block,感受野模块),在检测任务中获得不同尺度的感受野以改善主干网络中提取的特征。将模型中的激活函数替换为带有可学习参数的非线性激活函数PReLU(Parametric Rectified Linear Unit,参数化修正线性单元),加快网络模型的收敛速度;将RefineDet的边界框回归损失函数替换为排斥力损失函数Repulsion Loss,使目标检测中的某预测框更靠近其对应的目标框,并使该预测框远离附近的目标框及预测框,可以提升遮挡情况下目标检测的精度;构建驾驶视觉下的目标检测数据集,共计48 260张,其中38 608张作为训练集,9 652张作为测试集,并在主流的GPU硬件平台进行验证。该方法的mAP为85.59%,优于RefineDet及其他改进算法;FPS为41.7 frame/s,满足驾驶场景目标检测的应用要求。实验结果表明,该方法在检测速度略微下降的情况,能够较好地提升驾驶视觉下的目标检测的精确度,并能够一定程度上解决驾驶视觉下的遮挡目标检测和小目标检测的问题。  相似文献   

16.
针对传统数据融合算法在多场景下的眼动跟踪数据融合效果较差的问题,提出一种新的基于深度学习的眼动跟踪数据融合算法,即Eye-CNN-BLSTM算法。该算法在原始眼动跟踪数据空间位置信息基础上添加新的人工特征;将卷积神经网络(Convolutional Neural Network,CNN)与双向长短时记忆网络(Bi-directional Long Short-Term Memory,BLSTM)结合,设计了新的融合结构。实验结果表明,与六种经典数据融合算法相比,该算法在OTB-100数据集上融合性能更优。  相似文献   

17.
在商用数码相机中,由于CMOS传感器的限制,在采样得到的图像中的每个像素位置仅有一个色彩通道的信息,因此,需要采用彩色图像去马赛克(CDM)算法来恢复全彩图像.然而,现有的基于卷积神经网络(CNN)的CDM算法不能以较低的计算复杂度和网络参数量取得令人满意的性能.针对这个问题,提出一种应用通道间相关性和增强信息蒸馏(I...  相似文献   

18.
针对多尺度生成式对抗网络图像修复算法(MGANII)在修复图像过程中训练不稳定、修复图像的结构一致性差以及细节和纹理不足等问题,提出了一种基于多特征融合的多尺度生成对抗网络的图像修复算法。首先,针对结构一致性差以及细节和纹理不足的问题,在传统的生成器中引入多特征融合模块(MFFM),并且引入了一个基于感知的特征重构损失函数来提高扩张卷积网络的特征提取能力,从而改善修复图像的细节性和纹理特征;然后,在局部判别器中引入了一个基于感知的特征匹配损失函数来提升判别器的鉴别能力,从而增强了修复图像的结构一致性;最后,在对抗损失函数中引入风险惩罚项来满足利普希茨连续条件,使得网络在训练过程中能快速稳定地收敛。在CelebA数据集上,所提的多特征融合的图像修复算法与MANGII相比能快速收敛,同时所提算法所修复图像的峰值信噪比(PSNR)、结构相似性(SSIM)比基线算法所修复图像分别提高了0.45%~8.67%和0.88%~8.06%,而Frechet Inception距离得分(FID)比基线算法所修复图像降低了36.01%~46.97%。实验结果表明,所提算法的修复性能优于基线算法。  相似文献   

19.
基于孪生网络的目标跟踪,存在特征信息欠丰富,跟踪效率有待提高,大型数据集上训练时间长等问题。针对上述问题,提出特征融合与训练加速的高效目标跟踪。增加主干网络参考特征层级,减小下采样,融合多层级参考特征图,提取目标更深度、丰富的语义信息。深度互相关操作得到候选窗口响应(Response of Candidate Windows,RoWs),在其中构建区域建议网络(Region Proposal Network,RPN),通过权衡正负锚点的数量比,使孪生网络性能更加高效、稳定。大型数据集训练孪生网络时,使用均匀滑动漂移采样,代替随机漂移采样算法,在抑制中心偏置现象的同时,显著加快了孪生网络的训练速度。跟踪基准VOT2018上的评估实验结果表明,与所有参考的主流目标跟踪算法相比,所提算法具有最佳的跟踪性能。  相似文献   

20.
针对现有道路车辆检测识别算法中存在的检测精度不高、实时性差以及小目标车辆漏检等问题,提出一种基于密集连接卷积神经网络的道路车辆检测与识别算法.首先,基于YOLOv4网络框架,通过采用密集连接的深度残差网络结构,加强特征提取阶段的特征复用,实现对浅层复杂度较低的特征的利用;然后,在多尺度特征融合网络引入跳跃连接结构,强化...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号