首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 406 毫秒
1.
针对现有的遥感图像目标检测方法中对小尺寸飞机目标的检测精度不高、特征信息传递不准确、信息交互不充分等问题,提出了一种基于可辨别特征提取和上下文感知的遥感图像飞机目标检测方法。设计了以可辨别特征提取模块为主体的主干网络,用以加强对多尺度飞机目标的特征提取;引入自适应特征增强模块,选择性关注小目标、优化特征信息的传递与信息交互;并设计了特征融合上采样模块对特征图进行上采样操作,用以提升高层语义信息的准确性。在DOTAv1数据集上的检测精度达到了95.2%,相较于YOLOv5s、SCRDet、ASSD等主流算法,飞机目标的检测精度提高了3.7%~18%。此外,该方法的检测速度以及模型参数量分别为147 fps和13.4 M,相较于当前主流算法具备较强的竞争力,满足在遥感背景下对飞机目标的实时检测需求。  相似文献   

2.
高分辨率的遥感图像与普通图像相比,遥感图像目标具有方向多样性和尺度变化较大等特点。针对遥感图像目标检测问题,提出一种R-CenterNet遥感图像目标检测算法。首先,对CenterNet网络重新设计,在网络结构中加入旋转因子为检测框提供角度信息;其次,增加网络深度,提高网络检测性能;最后,为聚合不同区域的信息,进一步提取目标的多尺度信息,提出一种将目标特征注意力信息与多尺度池化信息相融合的注意力金字塔池化模块。实验结果表明R-CenterNet的检测结果比原始CenterNet提升了8%的平均精度值(mAP),具有更好的检测效果。  相似文献   

3.
针对遥感图像中小目标众多,目标尺度变化剧烈,背景复杂所造成的目标检测精度低的问题,提出了一种基于改进YOLOX的目标检测算法,在YOLOX的基础上,首先在主干网络中加入注意力机制提高网络对遥感图像中小目标的感知能力,丰富语义信息;其次在特征融合部分中加入MSCE R多尺度信息融合模块,通过融合不同尺寸的特征图,减少遥感图像因为尺度变化造成的图像细节信息损失;最后通过引入CIoU损失函数加快网络收敛速度,使其满足实时性的需求。本文将提出的检测算法在RSOD遥感数据集进行实验,平均检测准确率为9512%,相比于未做改进的YOLOX,检测精度提高了869%。实验结果证明,所提方法具有更高的检测精度。  相似文献   

4.
针对输电线路无人机巡检中绝缘子设备及缺陷图像检测过程中存在的绝缘子目标尺寸变化大、缺陷目标尺寸小、背景复杂干扰多和难易样本不平衡等问题,提出一种基于改进YOLOv7的绝缘子设备及缺陷检测算法:1)针对绝缘子缺陷目标尺寸小问题,在YOLOv7特征提取网络浅层引入卷积注意力机制,聚焦缺陷;2)针对绝缘子目标尺度变化大问题,在YOLOv7特征提取网络底部引入感受野增强模块,提取不同尺度目标特征;3)针对背景干扰问题,改进YOLOv7特征融合网络,在顶部引入显示视觉中心模块,同时关注全局信息与局部信息;4)针对难易样本不平衡问题,使用Focal-EIoU损失替换YOLOv7坐标回归损失。在合并的绝缘子及其缺陷无人机图像公开数据集上,该算法的多类目标检测精度均值达到了97.36%。  相似文献   

5.
黄聪  杨珺  刘毅  谢鸿慧 《电子测量技术》2022,45(21):148-155
针对高分辨率遥感图像语义分割存在地物边缘分割不连续、小目标分割精度不高的缺陷,本文提出一种基于改进DeeplabV3+的遥感图像分割算法,该算法首先使用分散注意力网络ResNeSt替换DeeplabV3+原始主干网络Xeception,以提取更丰富的深层语义信息,从而提高图像分割精度;其次引入坐标注意力机制(Coordinate Attention,CA),有效获得更精确的分割目标位置信息,使得分割目标边缘更加连续;最后在解码层中采用级联特征融合方法(CFF)提高网络的语义信息表征能力。试验结果表明,该算法在中国南方某城市的高清遥感图像数据集分割任务上mIoU高达97.07%,相比原始DeepLabV3+模型提高了3.39%,能够更好地利用图像语义特征信息,为解译遥感图像语义信息提供一种新的思路。  相似文献   

6.
遥感图像中的目标具有背景复杂、方向多变等特点。利用传统方法进行遥感图像目标检测过程复杂且费时,存在精度低,漏检率高等问题。针对以上问题,提出一种改进的YOLOv5-AC算法,该算法以YOLOv5s模型为基础,首先在原有的Backbone中构建非对称卷积结构,增强模型对翻转和旋转目标的鲁棒性;其次在主干网络的C3模块中引入坐标注意力机制提升特征提取能力,并使用Acon自适应激活函数激活;最后使用CIOU作为定位损失函数以提升模型定位精度。改进后的YOLOv5-AC模型在NWPU VHR-10和RSOD数据集上进行实验,平均精确度均值分别达到了94.0%和94.5%,分别比原版YOLOv5s提升了1.8%和2.3%,有效提高了遥感图像目标检测精确度。  相似文献   

7.
针对遥感车辆检测任务中存在目标尺寸小、背景复杂等问题,提出一种基于多重金字塔和多尺度注意力的轻量级YOLOv5算法。在主干网络中减少下采样次数,提高小目标检测能力,实现轻量化;在颈部中通过重新设计的多重金字塔网络,充分利用不同特征层的信息,增强特征融合能力,并引入改进的多尺度注意力模块,为浅层特征图获得更大的感受野和感兴趣区域;最后使用K-means++聚类算法对目标尺寸进行聚类分析,设计出适合目标的锚框尺度和宽高比。在自建遥感车辆数据集中不仅提升了目标检测精度,而且大大降低参数量。与YOLOv5s相比较,AP0.5%提高了2.3%、AP0.5:0.75%提高了4.3%;参数量降低了65%、模型大小减少了60%。在轻量化的同时有效地提高了小目标的检测精度。  相似文献   

8.
针对目标检测算法模型在交通标志检测上容易出现错检和漏检等问题,提出一种融合前景注意力的轻量级交通标志检测网络YOLOT。首先引入SiLU激活函数,提升模型检测的准确率;其次设计了一种基于鬼影模块的轻量级骨干网络,有效提取目标物特征;接着引入前景注意力感知模块,抑制背景噪声;然后改进路径聚合网络,加入残差结构,充分学习底层特征信息;最后使用VariFocalLoss和GIoU,分别计算目标的分类损失和目标间的相似度,使目标的分类和定位更加准确。在多个数据集上进行了大量实验,结果表明,本文方法的精度优于目前最先进方法,在CCTSDB数据集上进行消融实验,最终精度达到98.50%,与基线模型相比,准确率提升1.32%,同时模型仅4.7 MB,实时检测帧率达到44 FPS。  相似文献   

9.
针对遥感图像道路分割边界模糊和遮挡难以区分的问题,提出了基于改进DeeplabV3+的遥感图像道路分割模型。该模型在主干网络中引入MobileNetV3和高效通道注意力机制(ECA),减少了参数量并关注连续的道路特征信息。在解码过程中采用多级上采样,增强了编码器和解码器之间的紧密连接,全面保留了细节信息。同时,在ASPP模块中采用深度可分离膨胀卷积DS-ASPP,显著减少了参数量。实验结果表明,该模型在Massachusetts Roads数据集上的交并比达到了83.71%,准确率达到了93.71%,分割精度最优,模型参数量为55.57×106,能够有效地避免边界模糊和遮挡导致的错漏检问题,在遥感道路分割中提高了精度和速度。  相似文献   

10.
针对水下目标检测中目标对比度低以及水下图像多尺度问题,提出了高频增强网络与特征金字塔(FPN)融合的水下目标检测算法,以提高对水下目标边缘、轮廓信息以及目标底层信息的提取。首先引入八度卷积将卷积层的输出特征按频率分解,将主干网络提取到的特征图进行高、低频信息分离,鉴于水下目标的轮廓信息和噪声信息均包含于高频特征中,在高频信息通道中引入通道信息具有自适应增强特点的通道注意力机制,形成了一种高频增强卷积,以达到增强有用轮廓特征信息和抑制噪声的目的;其次,将增强的高频特征分量融入FPN的浅层网络中,提高原FPN对水下多尺度目标的特征表示能力,缓解多尺度目标漏检问题。最后,将所提方法与基线算法Faster R-CNN融合,在全国水下机器人大赛提供的数据集中进行实验。结果表明:改进算法识别准确率达到78.83%,相比基线提升2.61%,与其他类型目标检测算法相比,依然具备精度和实时检测优势,证明了从特征图频域角度提升前景和背景对比度的有效性。  相似文献   

11.
Building extraction from high resolution remote sensing image is a key technology of digital city construction[14]. In order to solve the problems of low efficiency and low precision of traditional remote sensing image segmentation, an improved U-Net network structure is adopted in this paper. Firstly, in order to extract efficient building characteristic information, FPN structure was introduced to improve the ability of integrating multi-scale information in U-Net model; Secondly, to solve the problem that feature information weakens with the deepening of network depth, an efficient residual block network is introduced; Finally, In order to better distinguish the target area and background area in the image and improve the precision of building target edge detection, the cross entropy loss and Dice loss were linearly combined and weighted. Experimental results show that the algorithm can improve the image segmentation effect and improve the image accuracy by 18%.  相似文献   

12.
王新  杨秀梅 《电子测量技术》2023,46(24):172-178
针对目标检测器检测跌倒时过于依赖卷积网络分类效果、无法利用运动信息的问题,本文设计了一种基于YOLOv5s和改进质心跟踪的跌倒检测模型。为解决耗费资源问题,用MobileNetV3网络和Slim Neck模块对YOLOv5s进行轻量化,同时将MobileNetV3网络中的SE模块替换为更高效的ECA模块,降低网络复杂度的同时保持较高的精度。引入哈希感知算法改进质心跟踪,增加目标关联的依据,提高跌倒检测的准确性。实验结果显示改进YOLOv5s模型大小下降52.2%,计算量下降51.8%,精度高达90.3%。改进质心跟踪的跌倒检测模型准确率提高了4.3%。结果表明了本文提出模型的有效性和优越性。  相似文献   

13.
针对无人机航拍图像目标尺寸太小、包含的特征信息较少,导致现有的检测算法对小目标检测效果不理想的问题,提出一种基于特征聚合与多元协同特征交互的无人机航拍图像小目标检测算法。首先,针对主干网对特征提取不足的问题,采用Swin Transformer作为RetinaNet主干网络,以增强算法对全局信息的提取能力。其次,为提高网络对远处目标即小目标的检测能力,设计出一种高效的小目标特征聚合网络(SFANet),实现对浅层特征图小目标细节信息的充分整合。最后,为进一步提高网络对多尺度目标的检测性能,使低层特征信息流向高层,提出全新的多元协同特征交互模板(MCFIM)。在公开无人机航拍数据集VisDrone2019-DET上的实验结果表明,所提算法相较于原RetinaNet基线网络检测精度提高7.6%,对于小目标具有更好的检测效果。  相似文献   

14.
针对传统目标检测算法对内丝接头密封面的缺陷识别率不高的问题,提出利用改进的YOLOv4算法对其进行检测。首先使用K-means++聚类算法对目标样本进行先验框参数优化,提高先验框与特征图的匹配度;其次在主干网络嵌入SENet注意力机制模块,强化图像关键信息,抑制图像背景信息,提高不易识别缺陷的置信度;然后在网络颈部增加SPP模块,增强主干网络输出特征的接受域,分离出重要的上下文信息;最后采用收集的内丝接头密封面缺陷数据集分别对改进前后的YOLOv4进行训练,并分别测试模型效果。实验结果表明,YOLOv4检测内丝接头密封面缺陷的性能较好,但有部分小目标漏检;改进后的模型对小目标缺陷的检测表现优异,均值平均精度(mAP)达到了87.47%,相比于原始YOLOv4提升了10.2%,平均检测时间为0.132 s,实现了对内丝接头密封面缺陷的快速准确检测。  相似文献   

15.
针对现有算法对高压塔上鸟巢检测存在参数量过大,实时性不足及对小目标检测能力较弱的问题,提出了一种改进的YOLOv4算法。首先使用Mobilenetv2网络代替CSPDarknet53网络作为主干网络,减少算法的参数量且提升检测速度;同时在Mobilenetv2网络的逆残差网络中嵌入注意力Coordinate Attention模块,增强网络对目标特征提取能力。然后,对PANet网络进行改进,获取更多的细节特征信息,提高对小目标鸟巢的检测能力。最后,使用Focal Loss函数优化损失函数,降低大量简单背景样本训练的权重,提升对小目标鸟巢困难样本训练的侧重,进一步提高对小目标鸟巢的检测能力。实验结果表明,较原始的YOLOv4算法,改进后的YOLOv4算法的参数量减少了48.1%,检测速度和精度分别提高了12.9fps和2.33%。即改进后的YOLOv4算法大幅度减少了算法参数量,且对鸟巢的检测拥有更好的检测性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号