首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
提出一种合成孔径雷达(synthetic aperture radar,SAR)图像旋转舰船检测方法,以提高SAR图像中旋转舰船的检测精度.从先验框设计和边界框回归公式对YOLOv4-CSP目标检测网络进行改进,加入旋转角度使其适用于基于旋转框的检测场景;提出一种基于旋转边界框外接圆和交并比的损失函数,该函数不仅考虑预...  相似文献   

2.
针对现有火灾检测算法检测精度不佳和算法模型复杂度过高的问题,提出基于改进GhostNet-FCOS的火灾检测算法. 该算法以目标检测网络FCOS为基础,降低通道维数并选用GhostNet作为特征提取网络,以实现轻量化火灾检测算法. 引入动态卷积,在不增加网络宽度和深度的情况下优化主干网络的基础模块,提高对形态多变的火焰图像的特征提取能力. 增加空间注意力模块,优化网络空间特征的表达. 改进正负样本定义和回归损失函数,优化训练过程中算法模型对标注框内不同区域的关注程度. 在自建火灾数据集和公开数据集中的实验结果表明,该算法在检测精度和模型复杂度方面具有优势. 该算法在自建火灾数据集中的检测精度为90.9%,参数量为4.58×106,浮点计算量为31.45×109.  相似文献   

3.
遥感图像目检测与识别是近年来国内外研究的热点之一。针对检测任务中因目标密集分布、目标尺度不一所导致的精度不高等问题,提出了一种改进YOLOv5的融合注意力机制目标检测算法。首先,将坐标注意力机制(Coordinate Attention, CA)分别融合到YOLOv5的骨干网络、颈部和输出端3个位置,以提高模型的特征提取能力。其次,进行训练和测试,实验结果表明,骨干网络位置最适合融合注意力,能够有效增强模型的检测性能。再次,采用CIoU_loss作为损失函数,以改善目标检测框的定位精度。最后,进行消融、对比实验,结果表明,提出的改进算法相较于原始YOLOv5算法具有更好的检测性能,mAP50提高了2.9个百分点,有效提高了遥感图像的目标检测精度。  相似文献   

4.
针对遥感图像中目标排列密集且方向不相同,导致现有检测算法难以准确定位实例目标的问题,提出了一种遥感图像密集小目标全方位精准检测算法。首先,为提升特征提取能力,在主干网络的残差结构中引入Meta-ACON激活函数,自适应地学习信道特征的重要性;其次,提出一种加强连接特征金字塔网络,重新设计了用于深浅层特征融合的侧向连接部分,并在同层次特征图输入与输出之间添加了跳跃连接,丰富特征语义信息;再次,引入角度预测分支,使用环形平滑标签方法将角度回归问题转化为分类问题,在实现目标框旋转的同时解决了旋转框边界突变的问题;最后,设计针对旋转检测框的后处理方法(Rotate-Soft-NMS),通过抑制检测框的置信度去除相邻的重复旋转检测框。在DOTA数据集上的实验结果表明:该算法的平均精度均值达到76.15%,相比于基准模型YOLOv5m提升了5.22%,与其他先进算法相比取得了最好的检测结果。本文算法对复杂遥感场景的目标具有更优的检测效果。  相似文献   

5.
旋转框定位的多尺度再生物品目标检测算法   总被引:1,自引:0,他引:1  
针对传统目标检测算法未考虑实际分拣场景目标物形态尺度的多样性,无法获取旋转角度信息的问题,提出基于YOLOv5的改进算法MR2-YOLOv5. 通过添加角度预测分支,引入环形平滑标签(CSL)角度分类方法,完成旋转角度精准检测. 增加目标检测层用于提升模型不同尺度检测能力,在主干网络末端利用Transformer注意力机制对各通道赋予不同的权重,强化特征提取. 利用主干网络提取到的不同层次特征图输入BiFPN网络结构中,开展多尺度特征融合. 实验结果表明,MR2-YOLOv5在自制数据集上的均值平均精度(mAP)为90.56%,较仅添加角度预测分支的YOLOv5s基础网络提升5.36%;对于遮挡、透明、变形等目标物,均可以识别类别和旋转角度,图像单帧检测时间为0.02~0.03 s,满足分拣场景对目标检测算法的性能需求.  相似文献   

6.
基于深度学习实现施工现场人员是否佩戴安全帽的检测方法因卷积神经网络层数多、结构复杂、计算量庞大,难以在嵌入式平台上实现实时检测。针对该问题,提出一种基于改进YOLOv4-Tiny的轻量化网络算法。该算法首先通过改进特征提取网络进一步融合多尺度特征信息以提高对小目标区域的识别能力;其次通过引入EIOU损失函数提高定位精确度以及模型收敛速度;最后采用聚类算法K-means++提取先验框中心点,选取更为合适的先验框,用于提高检测的精度及速度。实验结果表明,采用改进后的算法在嵌入式平台上进行安全帽佩戴检测,均值平均精度达到92.47%,较YOLOv4-Tiny提高了12.91%,实现了每秒20.16帧的实时检测速度,达到了实时检测的要求。  相似文献   

7.
针对目标检测中多类别、多尺度和背景复杂而导致的SSD (Single Shot Multibox Detector)算法检测精度不高的问题,提出了一种多尺度特征增强的改进SSD目标检测算法。首先将SSD网络模型的高层特征依次向下与浅层特征融合,构造一种多尺度目标检测结构。然后利用注意力机制对特征进行进一步的优化,从而达到增强网络模型特征提取的目的。最后用DIoU-NMS来处理图像目标中冗余框的问题,减少目标的漏检。在公开的NWPU VHR-10遥感数据集上将该方法与其他算法进行对比实验,其m AP较传统的SSD算法提高了6.7%。最后将改进后的算法应用于地铁安检图片检测,并在此数据集上进行消融实验来验证此算法每一阶段的有效性。  相似文献   

8.
现有遥感图像目标检测算法存在参数量大、检测速度慢和难以部署于移动设备的问题,为此,本文提出了一种无锚框的轻量级遥感图像目标检测算法.首先设计了DWS-Sandglass轻量化模块以降低模型体积,并改进模型激活函数,以确保检测精度.然后引入无参数注意力模块SimAM,使网络能够专注于更重要的特征信息.最后对无锚框算法的冗余通道进行剪枝操作以减少模型参数量,并通过微调回升精度.在HRSC2016数据集上的实验结果表明,与当前主流的无锚框检测算法相比,该算法在检测精度相当的情况下检测速度更快、模型体积更小,更适合在移动设备部署.  相似文献   

9.
针对YOLOv5在裂缝图像目标检测中未能考虑到裂缝图像背景复杂,检测目标较小导致检测效果不佳和易出现误检漏检的问题,提出了一种改进YOLOv5的沥青路面裂缝检测方法。该算法首先将轻量级Mobilenet v3的网络作为YOLOv5的特征提取骨干网络,以降低模型复杂度并加快推理速度。同时,在网络预测端引入高效通道注意力机制,提升网络局部特征捕获和融合能力。最后,通过一个嵌入Panet模块来强化裂缝图像的多尺度特征表达能力,提高对小目标的检测效果。实验结果表明,相比于原始YOLOv5算法,改进后的YOLOv5进行沥青路面裂缝检测的平均精度提高了5.6%,模型参数量降低了86.3%,图像检测时间减少了75.8%。  相似文献   

10.
水上交通场景环境复杂,通过普通光学摄像设备获取的水面图像,面临着视觉目标清晰度低、尺度多样化等问题,使得可见光视觉信号里中、小尺度目标检测相对困难。为服务于各类智慧海事应用,提出了一个旨在提高复杂水域背景下多尺度水上船舶目标检测性能的算法(multi-scale ship object detection,MS-SOD)。该算法基于当前计算机视觉技术中主流的单阶段目标检测模型框架,在其主干网络中嵌入卷积注意力模块,来优化船舶特征提取能力;在多尺度特征融合网络中引入富含细节信息的浅层特征,并使用跨阶段局部残差结构,来优化多尺度船舶特征的融合机制;同时,使用焦点损失函数,来优化模型的学习过程;并设计自适应锚框聚类算法优化先验锚框,以提高多尺度船舶目标检测能力。为验证提出算法的有效性和实效性,在构建较大规模水上船舶目标数据集的基础上,开展了广泛实验验证。结果表明:提出的算法在测试数据集上的检测准确度超过了各主流的对比方法;特别是对于大、中、小各尺度船舶目标的检测精度,相对于主流的YOLOv4算法,提出的算法分别提升了11.3%、6.0%和10.5%。  相似文献   

11.
在水下生物检测中,经典目标检测模型由于体积大、参数量多,不适用于微小型水下硬件设备,而现有轻量化模型又难以平衡检测精度和实时性.针对这一问题,本研究提出了基于改进Mobilenet-YOLOv3的轻量级检测算法CPM-YOLOv3,该算法利用规整通道剪枝算法对Mobilenet-YOLOv3进行剪枝,并将特征提取网络中的SE(squeeze-and-excitation)模块替换成CBAM (convolutional block attention module),实现对网络模型的压缩.同时,在不同尺寸的检测层中分别加入2个CBAM,在几乎不增加模型大小的情况下提升模型关注目标特征信息的能力.实验结果表明,CPM-YOLOv3模型大小仅有4.86 MB,与原模型相比大小降低了94.7%,平均检测精度为87.0%,速度为5.1 ms/帧.相较于其他网络模型,CPM-YOLOv3更适合在微小型水下设备中应用.  相似文献   

12.
针对传统目标检测算法(SSD)检测小目标精度低的问题,提出基于注意力机制与多尺度信息融合方法并将其运用于车辆检测任务.结合浅层特征图与深层特征图的优势,小目标检测分支和大中型目标检测分支的特征图采用5支路和2支路融合.在基础网络层之间加入注意力机制模块,模型会关注包含更多信息量的通道.实验结果表明,在自建车辆数据集上的均值平均精度(m AP)达到90.2%,比传统SSD算法提高了10.0%,其中小目标检测精度提高了17.9%;在PASCAL VOC 2012数据集上的类别平均精度mAP为83.1%,比主流的YOLOv5算法提高了6.4%.此外,提出算法在GTX1 660 Ti PC端的检测速度可以达到25帧/s,能够满足实时性的需求.  相似文献   

13.
全卷积孪生网络通过相似性学习解决目标跟踪问题,其算法受到了越来越多的关注.为了提取更有判别力的目标特征,提升跟踪的精确度和鲁棒性,提出了一种结合注意力机制与特征融合的目标跟踪模型.首先,将第一帧和当前帧的前一帧结合作为目标模板,利用共享的特征提取网络提取目标模板和当前帧的多个卷积层的特征;然后,对于目标模板的多层卷积特征,结合通道注意力机制处理,提升模板特征的判别力;最后,目标模板的特征与当前帧的特征进行互相关计算,得到响应图,从而获取预测目标在当前帧中的位置和尺度.最终实验结果表明,与几个先进的跟踪模型相比,提出的目标跟踪模型获得了比较有竞争力的性能.  相似文献   

14.
基于注意力机制和多层次特征融合的目标检测算法   总被引:1,自引:0,他引:1  
为了提高目标检测的准确率,提出一种基于注意力机制和多层次特征融合的图像目标检测算法。该算法在Cascade R-CNN模型的基础上,以RseNet50为主干网络,通过嵌入简单的注意力模块(SAM)来提高网络的判别能力;其次,利用深度可分离卷积改进特征金字塔网络(FPN),设计了多层次特征融合模块(MFFM),对多尺度特征进行融合,以丰富特征图的信息量,并对不同层次的特征图赋予相应的权重以平衡不同尺度的特征信息;最后,结合目标检测方法中的区域建议网络(RPN)结构获取目标的候选区域进行分类和回归处理,确定检测目标的位置和类别。实验结果表明,相较于Cascade R-CNN目标检测算法,该算法的检测精度提升了约2.0%。  相似文献   

15.
在无人机航拍视频烟雾检测领域中,由于不同检测场景差异大,导致现有烟雾检测算法经常出现检测精度低、速度慢等问题。为了解决以上问题,建立了一个基于无人机视角的多类场景下的烟雾数据集(UAV smoke dataset,USD),并提出了一种改进YOLOx的多类场景下无人机视频烟雾检测算法。首先,在YOLOx网络模型中引入改进的注意力机制,分别改进通道特征和空间特征的提取过程,提取更加具有表征能力的烟雾特征;然后,提出一种双向特征融合模块,增强多尺度特征融合模块对小目标烟雾特征的融合能力;最后,引入Focal-EIOU损失函数,解决训练过程中出现正负样本不平衡,以及预测框和真实框不相交时无法反映两个框的距离远近和重合度大小等问题。实验结果表明,所提算法在应用于多类场景下无人机视频烟雾检测任务时具有较好的鲁棒性,对比多个经典烟雾检测算法,本文算法在不同数据集上的烟雾检测准确率均有不同的提升,比如对比原有的YOLOx-s模型,准确率提升2.7%,召回率提升3%,速度达到73.6帧/s。  相似文献   

16.

针对现有半监督视频目标分割方法不能同时满足分割精度和分割效率的问题,在传统半监督视频目标分割方法上引入注意力机制对分割结果进行修正. 首先,构建一个外观特征提取子网用于提取视频第1帧的特征图,并将其作为外观指导信息;然后,得到视频前一帧的分割结果,作为位置引导信息;最后,构建一个当前帧特征提取子网,以双分支的结构结合位置修正注意力与外观修正注意力,将位置信息和外观信息与当前帧特征图进行融合,实现目标分割. 实验结果表明,该目标分割方法可以纠正视频目标分割中的传播误差,并能有效提升分割精度.

  相似文献   

17.
直接合成孔径雷达成像仿真方法在实现大型舰船目标回波仿真和合成孔径雷达成像时时效偏低,难以满足对海探测制导闭环验证过程中对合成孔径雷达快速生成的需求.因此,提出了基于三维散射中心的舰船目标合成孔径雷达回波和成像仿真方法.首先通过射线管积分三维快速成像和CLEAN三维散射中心提取得到不同视角下目标三维散射中心;然后通过对应...  相似文献   

18.
图像中阴影像素的存在会导致图像内容的不确定性,对计算机视觉任务有害,因此常将阴影检测作为计算机视觉算法的预处理步骤. 提出全新的阴影检测网络结构,通过结合输入图像中包含的语义信息和像素之间的关联,提升网络性能. 使用预训练后的深层网络ResNeXt101作为特征提取前端,提取图像的语义信息,并结合U-net的设计思路,搭建网络结构,完成特征层的上采样过程. 在输出层之前使用非局部操作,为每一个像素提供全局信息,建立像素与像素之间的联系. 设计注意力生成模块和注意力融合模块,进一步提高检测准确率. 分别在SBU、UCF这2个阴影检测数据集上进行验证,实验结果表明,所提方法的目视效果及客观指标皆优于此前最优方法所得结果,在2个数据集上的平均检测错误率分别降低14.4%和14.9%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号