共查询到19条相似文献,搜索用时 73 毫秒
1.
针对遥感图像中背景复杂目标、车辆小导致的成像模糊的目标漏检问题,提出一种基于YOLOv5s的改进模型。改进模型设计一种新的主干网络结构:改进模型的主干特征提取选用RepVGG网络,同时在主干网络中加入注意力机制CoordAttention来提高模型小目标的感知能力。增加多尺度特征融合,提高改进模型对于小目标的检测精度,边框回归的损失函数选择使用DIoU,帮助改进模型实现更加精准定位。实验结果表明,改进后的YOLOv5模型在遥感图像的目标检测,相较于原始模型在小目标车辆中检测精度提升5.3个百分点,与Faster R-CNN相比mAP提升16.88个百分点。改进后的模型与主流的检测算法相比能有较大的检测精度提升,相较于原始的YOLOv5s模型在遥感图像小车辆检测有更好的检测精度。 相似文献
2.
针对遥感图像中背景复杂度高、目标尺寸多样和小目标存在过多所导致的目标检测精度较低的问题,提出一种改进YOLOv5的遥感图像目标检测算法。该算法在主干网络引入通道-全局注意力机制(CGAM)以增强对不同尺度目标的特征提取能力和抑制冗余信息的干扰。引入密集上采样卷积(DUC)模块扩张低分辨率卷积特征图,有效增强不同卷积特征图的融合效果。将改进算法应用于公开遥感数据集RSOD中,改进YOLOv5算法平均精度AP值达到78.5%,较原算法提升了3.1个百分点。实验结果证明,改进后的算法能有效提高遥感图像目标检测精度。 相似文献
3.
针对遥感影像目标检测中复杂背景的干扰,小目标检测效果差等问题,提出一种改进YOLOv5(you only look once v5)的遥感影像目标检测模型。针对卷积神经网络下采样导致的特征图中包含的小目标信息较少或消失的问题,引入特征复用以增加特征图中的小目标特征信息;在特征融合阶段时使用EMFFN(efficient multi-scale feature fusion network)的特征融合网络代替原有的PANet(path aggregation network),通过添加跳跃连接以及跨层连接高效融合不同尺度的特征图信息;为了应对复杂背景带来的检测效果变差的问题,提出了一种包含通道与像素的双向特征注意力机制(bidirectional feature attention mechanism,BFAM),以提高模型在复杂背景下的检测效果。实验结果表明,改进后的YOLOv5模型在DIOR数据集与RSOD数据集中分别取得了87.8%和96.6%的检测精度,相较原算法分别提高5.2和1.6个百分点,有效提高了复杂背景下的小目标检测精度。 相似文献
4.
针对遥感图像中背景复杂度高、目标尺寸多样所导致的目标检测精度低的问题,提出一种基于改进 YOLOv5的遥感图像目标检测算法。该算法将具有Transformer风格的ConvNeXt网络作为主干网络,以克服卷积神经网络(CNN)结构的局限性,捕获更多全局信息。引入 SimAM 注意力机制在不增加网络参数的情况下,推断出特征图的3D注意力权值,提高网络的稳定性以及抗干扰能力。同时采用全局显式集中调节方案的集中特征金字塔(CFP),捕获全局长距离依赖关系以及遥感图像的局部关键区域信息。将本文提出的算法在 RSOD 数据集上进行消融实验,结果表明,本文提出的算法能够显著提高遥感图像目标检测的平均准确率。 相似文献
5.
针对YOLOv5在遥感图像目标检测中未能考虑到遥感图像背景复杂、检测目标较小且图像中目标语义信息占比过低导致的检测效果不佳和易出现误检漏检等问题,提出了一种改进YOLOv5的遥感图像目标检测方法。将轻量级的通道注意力机制引入到原始YOLOv5的特征提取和特征融合网络的C3模块中,以提升网络局部特征捕获与融合能力;强化对遥感图像的多尺度特征表达能力,通过增加一个融合浅层语义信息的细粒度检测层来提高对小目标的检测效果;使用Copy-Paste数据增强方法来丰富训练样本数量,在不增加模型计算量的情况下可进一步解决遥感图像背景信息占比过高而目标区域占比过低的问题。实验结果表明,改进YOLOv5在公开的DOTA和DIOR遥感图像数据集上mAP结果分别达到0.757和0.759。该方法较原始YOLOv5可提高0.017和0.059,相比于其他典型遥感目标检测方法在精度上也有所提升,证明了改进YOLOv5方法的有效性。 相似文献
6.
目标检测是计算机视觉领域的一个重要应用,针对光学遥感影像的目标检测任务也是当下的研究热点之一。现阶段科技进步的同时带来了一系列环境问题,环境保护已经成为当下值得关注的重点问题。水坝的建设是影响全球环境保护以及资源利用的一个重要因素,对水坝进行监测可以为环境保护工作提供参考依据。为了环境保护后续工作的开展,分析水坝在图像中的位置,该文针对高分辨率光学遥感影像中的水坝目标检测方法进行研究,对比了深度学习三个阶段较为典型的目标检测模型,根据实验结果选用精度较高的YOLOv5通用目标检测模型,并根据遥感图像背景复杂的特性结合CBAM注意力机制提高网络对图像中水坝目标的重点关注。在DIOR光学遥感目标检测数据集中提取含有水坝目标的图像并验证模型精度,实验表明YOLOv5-CBAM在并不显著增加模型大小的情况下比YOLOv5运算能力强,并且AP50可以达到86.4%,比仅使用YOLOv5的模型AP50提高了3.2百分点。 相似文献
7.
航拍图像目标检测对于高效解译航拍图像,并用于地图绘制、资源普查、城乡规划等领域有着重大现实意义。针对无人机航拍图像中的物体尺度变化大、易受到背景干扰和微小目标容易错检漏检的问题,提出一种基于YOLOv7进行改进的航拍图像目标检测算法(AirYOLOv7)。AirYOLOv7通过在原网络的特征提取阶段结合三维注意力机制,在特征融合阶段结合通道注意力机制,以帮助模型更好地聚焦于图像中的关键信息。考虑到航拍图像中存在许多微小物体,算法额外增加了一个用于检测微小物体的预测头,并在每个预测头前引入C3STB,以增强算法对不同尺度目标的检测能力。针对IoU损失对微小物体的位置偏差非常敏感,通过在原边框回归损失中引入Wasserstein距离来衡量微小物体之间的差异,以提高算法对微小物体的检测能力。实验结果表明,AirYOLOv7在DOTA和VisDrone这两个公开的光学航拍数据集上的mAP分别达到78.65%和51.79%,相较于原始的YOLOv7分别提高了1.92个百分点和2.28个百分点,证明了改进方法在光学航拍图像上的有效性。 相似文献
8.
针对目标检测模型在人物跌倒时易漏检、鲁棒性和泛化能力差等问题,提出一种基于改进YOLOv5s的跌倒人物目标检测方法 YOLOv5s-FPD。首先,对Le2i跌倒数据集使用多种方式扩充后用于模型训练,增强模型鲁棒性和泛化能力;其次,使用MobileNetV3作为主干网络来进行特征提取,协调并平衡模型的轻量化和准确性关系;然后,利用BiFPN改善模型多尺度特征融合能力,提高了融合速度和效率,并使用CBAM轻量级注意力机制实现注意力对通道和空间的双重关注,增强了注意力机制对模型准确性地提升效果;最后,引入Focal Loss损失评价从而更注重挖掘困难样本特征,改善正负样本失衡的问题。实验结果表明,在Le2i跌倒数据集上YOLOv5s-FPD模型比原YOLOv5s模型,在精确度、F1分数、检测速度分别提高了2.91%,0.03和8.7 FPS,验证了该方法的有效性。 相似文献
9.
针对现有建筑物检测模型检测精度低下,模型体积较大,导致遥感图像检测速度和精度无法平衡,不利于后期部署等问题,提出一种基于YOLOv4优化的轻量级遥感图像建筑物检测模型。利用轻量化网络GhostNet替换CSP DarkNet53进行特征提取;借鉴稠密连接思想,提出了Dense-PANet特征融合模块;将ECA注意力机制引入Ghost模块,替换特征融合颈部网络的传统卷积。实验结果表明,提出的模型与YOLOv4相比,牺牲少量检测速度,但是平均精度提高了0.96个百分点,召回率提升了1.08个百分点,模型体积降低了71.39%,浮点计算量降低了76.60%,能有效满足遥感图像建筑物检测的需求。 相似文献
10.
针对遥感图像目标检测任务中存在的目标尺度差异大、检测精度低等问题,提出了一种基于加权策略的改进YOLOv3遥感图像目标检测模型.为提高对遥感图像中小目标的检测精度,增加具有较小感受野的特征图像的检测分支.设计了一种多尺度特征图像自适应加权融合方法,通过挖掘特征提取网络的表征能力,综合利用多尺度特征提高了目标检测精度.采... 相似文献
11.
目的 遥感图像目标检测是遥感图像处理的核心问题之一,旨在定位并识别遥感图像中的感兴趣目标。为解决遥感图像目标检测精度较低的问题,在公开的NWPU_VHR-10数据集上进行实验,对数据集中的低质量图像用增强深度超分辨率(EDSR)网络进行超分辨率重构,为训练卷积神经网络提供高质量数据集。方法 对原Faster-RCNN (region convolutional neural network)网络进行改进,在特征提取网络中加入注意力机制模块获取更多需要关注目标的信息,抑制其他无用信息,以适应遥感图像视野范围大导致的背景复杂和小目标问题;并使用弱化的非极大值抑制来适应遥感图像目标旋转;提出利用目标分布之间的互相关对冗余候选框进一步筛选,降低虚警率,以进一步提高检测器性能。结果 为证明本文方法的有效性,进行了两组对比实验,第1组为本文所提各模块间的消融实验,结果表明改进后算法比原始Faster-RCNN的检测结果高了12.2%,证明了本文所提各模块的有效性。第2组为本文方法与其他现有方法在NWPU_VHR-10数据集上的对比分析,本文算法平均检测精度达到79.1%,高于其他对比算法。结论 本文使用EDSR对图像进行超分辨处理,并改进Faster-RCNN,提高了算法对遥感图像目标检测中背景复杂、小目标、物体旋转等情况的适应能力,实验结果表明本文算法的平均检测精度得到了提高。 相似文献
12.
目的 遥感图像目标检测在国防安全、智能监测等领域扮演着重要的角色。面对遥感图像中排列密集且方向任意分布的目标,传统水平框目标检测不能实现精细定位,大型和超大型的目标检测网络虽然有强大表征学习能力,但是忽略了模型准确率与计算量、参数量之间的性价比,也满足不了实时检测的要求,庞大的参数量和计算量在模型部署上也非常受限,针对以上问题,设计了一种轻量级的旋转框遥感图像目标检测模型(YOLO-RMV4)。方法 对原MobileNetv3网络进行改进,在特征提取网络中加入性能更好的通道注意力机制模块(efficient channel attention,ECA),并且对网络规模进行适当扩展,同时加入路径聚合网络(path aggregation network,PANet),对主干网络提取特征进行多尺度融合,为网络提供更丰富可靠的目标特征。网络检测头中则采用多尺度检测技术,来应对不同尺寸的目标物体,检测头中的角度预测加入了环形圆滑标签(circular smooth label,CSL),将角度回归问题转换为分类问题,从而使预测角度和真实角度之间的距离可以衡量。结果 将提出的检测模型在制备的AV... 相似文献
13.
航空遥感图像目标检测旨在定位和识别遥感图像中感兴趣的目标,是航空遥感图像智能解译的关键技术,在情报侦察、灾害救援和资源勘探等领域具有重要应用价值。然而由于航空遥感图像具有尺寸大、目标小且密集、目标呈任意角度分布、目标易被遮挡、目标类别不均衡以及背景复杂等诸多特点,航空遥感图像目标检测目前仍然是极具挑战的任务。基于深度卷积神经网络的航空遥感图像目标检测方法因具有精度高、处理速度快等优点,受到了越来越多的关注。为推进基于深度学习的航空遥感图像目标检测技术的发展,本文对当前主流遥感图像目标检测方法,特别是2020—2022年提出的检测方法,进行了系统梳理和总结。首先梳理了基于深度学习目标检测方法的研究发展演化过程,然后对基于卷积神经网络和基于Transformer目标检测方法中的代表性算法进行分析总结,再后针对不同遥感图象应用场景的改进方法思路进行归纳,分析了典型算法的思路和特点,介绍了现有的公开航空遥感图像目标检测数据集,给出了典型算法的实验比较结果,最后给出现阶段航空遥感图像目标检测研究中所存在的问题,并对未来研究及发展趋势进行了展望。 相似文献
14.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。 相似文献
15.
显著性目标检测是遥感图像处理的重要研究领域,传统的方法通过逐个像素点的计算来实现目标检测,难以满足遥感图像大面积实时处理的要求。将视觉注意机制应用到遥感图像的显著性目标检测中,在训练阶段,将所有的目标融合成目标类,所有的背景融合成背景类,目标类的显著性均值与背景类的显著性均值的比值得到一个权重向量;在检测阶段,所有的特征图乘以权重向量得到自顶向下的显著性图;自顶向下和自底向上的显著性图融合生成全局显著性图。实验结果表明当目标和背景不是总成对出现时,该方法的检测结果优于Navalpakkam模型和Frintrop模型的检测结果。 相似文献
16.
遥感图像分析在国土资源管理、海洋监测等领域有着极为广阔的应用前景。深度学习技术已在图像处理领域取得突破性进展,然而,遥感图像固有的尺寸大、目标小而密集等特点,使得将面向普通图像的深度学习方法用于遥感目标检测普遍存在定位不准确、小目标检测难、大图检测精度差等问题。针对上述难题,
提出了一种新型遥感图像目标检测算法DFS。与传统机器学习方法相比,DFS
设计了新的维度聚类模块、定制损失函数和滑动窗口分割检测机制。其中,维度聚类模块通过设计聚类机制优化定制先验框,提高定位精度;定制损失函数提高对船只等小目标的检测精度;滑动窗口分割检测解决大图检测精度低的问题。在经典遥感数据集上开展的实验对比表明,与YOLOv2相比,DFS算法的mAP提高了256%,小目标检测效率及大图检测效能大幅提高。 相似文献
17.
18.
目的 主流深度学习的目标检测技术对自然影像的识别精度依赖于锚框设置的好坏,并使用平行于坐标轴的正框表示物体位置,而遥感影像中地物目标具有尺寸多变、分布密集、长宽比悬殊且朝向不定的特点,更宜通过与物体朝向一致的斜框表示其位置。本文试图结合无锚框和斜框检测技术,在遥感影像上实现高精度目标识别。方法 使用斜框标注能够更为紧密地贴合目标边缘,有效减少识别干扰因素。本文基于单阶段无锚框目标检测算法:一阶全卷积目标检测网络(fully convolutional one-stage object detector, FCOS),通过引入滑动点结构,在遥感影像上实现高效率、高精度的斜框目标检测。与FCOS的不同之处在于,本文改进的检测算法增加了用于斜框检测的两个分支,通过在正框的两邻边上回归滑动顶点比率产生斜框,并预测斜框与正框的面积比以减少极端情况下的检测误差。结果 在当前最大、最复杂的斜框遥感目标检测数据集DOTA(object detection in aerial images)上对本文方法进行评测,使用ResNet50作为骨干网络,平均精确率(mean average precision,... 相似文献
19.
目的 随着遥感影像空间分辨率的提升,相同地物的空间纹理表现形式差异变大,地物特征更加复杂多样,传统的变化检测方法已很难满足需求。为提高高分辨率遥感影像的变化检测精度,尤其对相同地物中纹理差异较大的区域做出有效判别,提出结合深度学习和超像元分割的高分辨率遥感影像变化检测方法。方法 将有限带标签数据分割成切片作训练样本,按照样本形式设计一个多切片尺度特征融合网络并对其训练,获得测试图像的初步变化检测结果;利用超像元分割算法将测试图像分割成许多无重叠的同质性区域,并将分割结果与前述检测结果叠合,得到带分割标记的变化检测结果;用举手表决算法统计带分割标记的变化检测结果中超像元的变化状况,得到最终变化检测结果。结果 在变化检测实验结果中,本文提出的多切片尺度特征融合卷积网络模型在广东数据集和香港数据集上,优于单一切片尺度下卷积神经网络模型,并且结合超像元的多切片尺度特征融合卷积网络模型得到的Kappa系数分别达到80%和82%,比相应的非超像元算法分别提高了6%和8%,在两个测试集上表现均优于长短时记忆网络、深度置信网络等对比算法。结论 本文提出的卷积神经网络变化检测方法可以充分学习切片的空间信息和其他有效特征,避免过拟合现象;多层尺度切片特征融合的方法优于单一切片尺度训练神经网络的方法;结合深度学习和超像元分割算法,检测单元实现了由切片到超像元的转变,能对同物异谱的区域做出有效判决,有利于提升变化检测精度。 相似文献