共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
4.
5.
6.
遥感图像中的目标检测技术是计算机视觉领域的热点研究之一。为了适应遥感图像中的复杂背景和任意方向的目标,主流的目标检测模型均采用旋转检测方法。然而,用于旋转检测的定位损失函数通常存在变化趋势与实际偏斜交并比(Intersection-over-Union, IoU)的变化趋势不一致的问题。为此,该文提出一种新的面向旋转目标检测的双向衰减损失方法。具体而言,该方法通过高斯乘积模拟偏斜IoU,并依据预测位置的偏差从两个方向衰减乘积。双向衰减损失能够反映由位置偏差引起的偏斜IoU变化,其变化趋势与偏斜IoU有着更强的一致性,并且与其他相关方法相比性能更好。在DOTAv1.0数据集上的实验表明,所提方法在多种基底函数和不同精度条件下都是有效的。 相似文献
7.
如何在复杂环境中准确、快速地实现各类船舶目标检测是一项重要研究课题,也是保障船舶航行安全、保护领土安全、加强水域资源监管的基础。红外成像、合成孔径雷达(Synthetic Aperture Radar,SAR)以及卫星遥感等成像技术的发展为船舶检测提供了丰富的图像数据,已取得许多研究成果。介绍了船舶目标检测的过程,从基于传统图像处理技术的船舶目标检测和基于深度学习的船舶目标检测两方面总结并分析了现有船舶目标检测方法,讨论了相关关键技术,最后指出了未来的研究方向。 相似文献
8.
遥感图像目标检测能为军事和民用领域提供重要的可利用信息,成为近年来的研究热点。针对现有目标检测技术不能兼顾检测速度和精度的问题,本文对Faster R-CNN做了优化:将轻量化的深度可分离残差网络作为Faster R-CNN的基础网络,降低基础网络模型的参数数量;将基础网络中的多层卷积特征经局部响应归一化后进行融合,增强目标特征信息的完备性,改善小目标易漏检的问题;联合softmax损失函数和中心损失函数训练网络模型,增加类别之间的差异性,缩小类内变化,使网络模型能学习到更具差异性的目标特征。在VEDAI、NWPU VHR-10、DOTA三个数据集上对本文方法进行验证,与传统Faster R-CNN相比,本文方法的检测精度提高了约7.0%。 相似文献
9.
由于遥感图像背景复杂,移动小目标的检测难度较大,为此提出了基于深度学习的遥感图像移动小目标轻量化检测方法。为了保障目标检测效果,建立了轻量化主干网络划分遥感图像目标区域。采用深度学习方法预训练划分的遥感图像目标区域。依据训练结果确定遥感图像目标区域。根据确定的遥感图像目标区域提取目标特征。利用SSD(Single Shot MultiBox Detector)目标检测算法对提取的目标特征实行回归分类,完成遥感图像移动小目标轻量化检测。实验结果表明,该方法的检测率高于90%,虚警率低于10%,且不存在漏检问题,负荷实际结果,说明该方法的遥感图像移动小目标的检测效果较好。 相似文献
10.
11.
针对遥感图像中背景复杂、小目标分布密集以及易受环境因素影响导致检测性能不佳的问题,提出一种改进的YOLOv5s目标检测算法。首先,通过设计一种混淆鉴别注意力机制(Confusion-Distinguishable Attention,CDA)来避免目标与背景之间的混淆,提高对目标信息的关注度,能够有效提升目标检测的准确性和健壮性。其次,在原结构的颈部添加小目标检测层,解决小目标分布紧密、漏检的现象,从而提高算法的多尺度目标检测性能。最后,在DOTA数据集中进行实验和验证。实验结果表明,所提算法能够明显提高遥感图像目标检测的平均准确率。 相似文献
12.
13.
14.
15.
16.
针对目前算法对遥感图像中背景复杂、目标小而密集的复杂场景下的目标检测精度低的问题,提出了一种基于YOLOv3的改进算法,在YOLOv3的基础上,结合了密集连接网络,利用密集连接块来提取深层特征,增强特征传播,同时引入Distance-IoU(DIoU) loss作为坐标预测的损失函数,使边界框的定位更加准确,此外针对目标间相互遮挡的情况,改进了传统的非极大值抑制算法,使用DIoU代替IoU来克服虚假抑制的问题.对所提算法在三个经典的遥感数据集上进行了测试,实验结果证明,所提方法具有更高的检测精度. 相似文献
17.
18.
针对大场景遥感图像舰船目标的快速检测问题,该文设计了一种级联型卷积神经网络检测框架。该检测框架由目标预筛选全卷积网络(P-FCN)和目标精确检测全卷积网络(D-FCN)两个全卷积网络级联而成。P-FCN是一个轻量级的图像分类网络,负责对大场景图像中可能的舰船区域进行快速预筛选,其层数少、训练简单,候选框冗余较少,能够减少后续网络的计算负担;D-FCN是一个改进的U-Net网络,通过在传统U-Net结构中加入目标掩膜和舰船朝向估计层以进行多任务的学习,实现任意朝向舰船目标的精细定位。该文分别使用TerraSAR-X雷达遥感图像和从91卫图、DOTA数据集中获得的光学遥感图像对算法进行了测试,结果表明该方法的检测准确率分别为0.928和0.926,与传统滑窗法相当,但目标检测时间仅为滑窗法的1/3左右。该文所提的级联型卷积神经网络检测框架在保持检测精度的前提下能显著提高目标检测效率,可实现大场景遥感图像中舰船目标的快速检测。 相似文献
19.
与常规场景相比,遥感场景目标检测任务存在图像尺寸大、小目标数量多、检测框有旋转角等难点,这些难点也使得遥感图像中物体间有更多的关系可挖掘。为提升遥感场景下对旋转目标的检测效果,通过添加关系挖掘模块对旋转目标检测算法(Oriented R-CNN for Object Detection, ORCN)进行优化。关系挖掘模块利用动态图神经网络、交叉注意力机制使候选区域的特征、形状信息进行有效交互,丰富候选区域特征的上下文语义。实验结果表明,添加关系挖掘模块后模型在遥感数据集上的DOTA表现提升1.53%,明显优于原检测算法。 相似文献