首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
遥感目标检测是从遥感图像中对目标进行类别识别与定位的过程,它是遥感图像处理领域中一个重要的研究分支。目标尺度变化大和目标姿态旋转多变是制约遥感图像目标检测性能的重要因素之一。针对上述难点,本文提出了基于多尺度特征与角度信息的无锚定框目标检测方法。首先,该方法在经典特征金字塔网络中嵌入特征选择与对齐模块解决现有的特征金字塔网络存在的特征错位和通道信息丢失两种缺陷,从特征层面提升检测模型多尺度学习能力;其次,针对现有基于锚定框的旋转目标检测方法存在超参数敏感的问题,在基于无锚定框目标检测网络基础上加入了旋转边界框定位方式,无需对检测性能敏感的锚定框超参数进行设置;最后,为了解决旋转边界框存在边界突变问题,该方法将旋转边界框转换为二维高斯分布表示,并引入基于二维高斯分布的旋转回归定位损失函数来驱动检测网络学习目标的方向信息。实验结果表明,在多尺度和旋转目标检测方面,该方法的性能优于近几年提出的遥感目标检测方法。  相似文献   

2.
鉴于低空场景下无人机尺度多变、背景复杂的特点,提出一种基于深度学习的多尺度低空无人机目标检测算法.针对高层卷积特征对小无人机目标特征表达能力差的问题,引入VGG16低层特征图Conv3_3,构建特征金字塔网络,利用有效感受野技术,重新设计各特征图中先验框的尺寸和长宽比例,建立多尺度、多背景且包含干扰目标的低空无人机图像数据集,完成算法的训练和优化.实验结果表明,该算法相比原始SSD网络,平均精度(average precision,AP)提高了7.32%,有较好的抗干扰效果和实时检测能力.  相似文献   

3.
基于关键点的Anchor Free目标检测模型综述   总被引:1,自引:0,他引:1  
目标检测是计算机视觉应用的基础,基于锚框的一些目标检测算法已难以满足目标检测中对目标处理的效率、性能等诸多方面的要求,而anchor free方法逐渐广泛应用于目标检测.本文首先重点介绍了CornerNet、CenterNet、FCOS模型的一系列基于关键点的anchor free目标检测方法,综述了算法思路及其优缺点;然后分别对基于锚框和基于关键点的目标检测算法在同一个数据集上作了性能比较和分析;最后对基于关键点的目标检测进行了总结,并展望了目标检测的未来发展方向.  相似文献   

4.
复杂场景下小目标检测是目标检测领域的研究难点和热点。传统的two-stage和one-stage检测模型都是通过预先设定锚点框与真实目标框的交并比(intersection over union,IoU)阈值来划分正负样本集,同时这组预定义的固定锚点框还用于获取候选框,进而得到检测结果。然而,在复杂场景下,预先设定的IoU阈值会带来正负样本不均衡问题;针对小尺寸目标(船舶)检测,预定义的锚点框也很难保证覆盖目标的位置和密度,因此限制了检测模型的准确率。为了解决上述问题,提出自适应锚点框(adaptive anchor boxes,AAB)的方法优化目标检测网络,采用基于形状相似度距离的聚类算法生成锚点框,提高目标区域定位技术;采用利用聚类的锚点框计算自适应IoU阈值(adaptive threshold selection,ATS),划分正负样本,保证样本均衡。对复杂场景下的小目标(船舶目标)进行检测,实验结果表明,采用自适应锚点框方法和自适应阈值选择方法的目标检测模型在复杂场景中检测均能提升准确,对比faster R-CNN、FPN、Yolo3和pp-Yolo,融合了上述新方法的模型均提升了检测准确率,分别提升了9.6、2.6、9.8和9.9个百分点。  相似文献   

5.
由于监控中的行人检测存在背景复杂,目标尺度和姿态多样性及人与周围物体互相遮挡的问题,造成YOLOV3对部分目标检测不准确,会产生误检、漏检或重复检测的情况。因此,在YOLOV3的网络基础上,利用残差结构思想,将浅层特征和深层特征进行上采样连接融合得到104×104尺度检测层,并将K-means算法聚类得到的边界框尺寸应用到各尺度网络层,增加网络对多尺度、多姿态目标的敏感度,提高检测效果。同时,利用预测框对周围其他目标的斥力损失更新YOLOV3损失函数,使预测框向正确的目标靠近,远离错误的目标,降低模型的误检率,以改善目标间互相遮挡而影响的检测效果。实验结果证明,在MOT16数据集上,相比YOLOV3算法,提出的网络模型具有更好的检测效果,证明了方法的有效性。  相似文献   

6.
针对遥感图像中目标朝向任意性的问题,提出一种级联结构的目标检测算法.在基准模型的基础上,采用2种不同的边界框标注模式将多个感兴趣区域网络交错串联,基于当前阶段的倾斜框预测结果回归下一阶段的水平框和倾斜框,形成多阶段级联式的学习过程.该算法结合水平框和倾斜框的各自优势,实现更鲁棒的目标边界框预测.DOTA数据集上的大量实验结果表明,该算法在2个边界框任务上的边界框预测精度明显优于现有的遥感图像目标检测算法.  相似文献   

7.
周士琪    王耀南    钟杭   《智能系统学报》2021,16(3):584-594
针对旋翼飞行器在跟踪过程中目标尺度变化、快速运动、视角变化等问题,本文提出了一种基于MobileNetV2的孪生网络目标跟踪算法,可在无人机机载处理器上实时运行。该算法主要包含目标得分估计模块与目标尺度估计模块两个部分。结合多特征融合的策略,可准确预测出目标位置与目标框IoU,同时以目标框IoU为指导,利用梯度上升法对目标框进行迭代修正,进一步提升预测精度。针对完全遮挡而导致的目标跟丢问题,本文设计了一个基于视觉显著性的目标再检测算法,该算法可实时高效地预测出图像的显著性区域,以指导对目标的再检测,进而恢复跟踪。最后,通过标准无人机跟踪数据集测试与实际无人机跟踪实验,验证了算法的可行性。  相似文献   

8.
无人机航拍影像具有目标尺度变化大、背景复杂等诸多特性,导致现有的检测器难以检测出航拍影像中的小目标。针对无人机影像中小目标误检漏检的问题,提出了改进YOLOv5的算法模型Drone-YOLO。增加了检测分支以提高模型在多尺度下的检测能力。设计了多层次信息聚合的特征金字塔网络结构,实现跨层次信息的融合。设计了基于多尺度通道注意力机制的特征融合模块,提高对小目标的关注度。将预测头的分类任务与回归任务解耦,使用Alpha-IoU优化损失函数定义,提升模型检测的效果。通过无人机影像数据集VisDrone的实验结果表明,Drone-YOLO模型较YOLOv5模型在AP50指标上提高了4.91个百分点,推理延时仅需16.78 ms。对比其他主流模型对于小目标拥有更好的检测效果,能够有效完成无人机航拍影像的小目标检测任务。  相似文献   

9.
针对无人机航拍航道船舶影像中船舶目标较小、尺度变换大、背景复杂等问题,提出了一种基于FoveaBox网络的单阶段无锚框的航道船舶检测算法FoveaSDet。为提升小目标的检测精度,该算法使用基于残差网络改进的SEResNeXt-I作为骨干网。为改善尺度变换问题,FoveaSDet采用Foveahead实现无锚框目标检测。同时为提高复杂背景下检测框的定位精度,使用完全交并比损失实现边框回归。经实验测试,FoveaSDet算法在实景航拍数据集上的平均准确率(AP)和小目标准确率(APS)分别为71.6%和47.0%,相较于原始的FoveaBox提高了4.9%和6.2%,体现了更好的总体检测精度和小目标检测能力。  相似文献   

10.
针对驾驶场景中目标检测卷积神经网络模型检测精度较低的问题,提出一种基于改进RefineDet网络结构的多尺度特征融合目标检测方法。在RefineDet网络结构中嵌入LFIP(Light-weight Featurized Image Pyramid,轻量级特征化的图像金字塔)网络,将LFIP网络生成的多尺度特征图与RefineDet中的ARM(Anchor Refinement Module,锚点框修正模块)输出的主特征图相融合,提升特征层中锚点框初步分类和回归的输出效果,为ODM(Object Detection Module,目标检测模块)模块提供修正的锚点框以便于进一步回归和多类别预测;在RefineDet网络结构中的ODM之后嵌入多分支结构RFB(Receptive Field Block,感受野模块),在检测任务中获得不同尺度的感受野以改善主干网络中提取的特征。将模型中的激活函数替换为带有可学习参数的非线性激活函数PReLU(Parametric Rectified Linear Unit,参数化修正线性单元),加快网络模型的收敛速度;将RefineDet的边界框回归损失函数替换为排斥力损失函数Repulsion Loss,使目标检测中的某预测框更靠近其对应的目标框,并使该预测框远离附近的目标框及预测框,可以提升遮挡情况下目标检测的精度;构建驾驶视觉下的目标检测数据集,共计48 260张,其中38 608张作为训练集,9 652张作为测试集,并在主流的GPU硬件平台进行验证。该方法的mAP为85.59%,优于RefineDet及其他改进算法;FPS为41.7 frame/s,满足驾驶场景目标检测的应用要求。实验结果表明,该方法在检测速度略微下降的情况,能够较好地提升驾驶视觉下的目标检测的精确度,并能够一定程度上解决驾驶视觉下的遮挡目标检测和小目标检测的问题。  相似文献   

11.
Object detection consists of two key steps: class recognition and object localization. Class recognition is fundamental because the quality of the obtained feature representations is key to detection accuracy; for locating the object, bounding box refinement is the most intuitive method for improving the localization accuracy of the utilized detector; that is, selecting a better loss function metric when computing the best-fitted bounding box for the object of interest. However, current class activation mapping (CAM) scores cannot help effectively distinguish the object from background noise and involve fixed weights for the geometric characteristics of the anchor box, leading to inaccurate object detection. In this paper, we proposed a mixed-CAM method to obtain improved category scores for class recognition, and an adaptive intersection-over-union method (AIoU) that improves the localization performance for object detection. The mixed-CAM method combines an original image response and CAM information to provide a confidence score for the final feature map and, in the meantime, considers this score as a sample selection criterion for the following localization regression stage. The AIoU method designs a new loss function metric for bounding box localization regression. In doing so, the proposed method considers the weight of each geometric characteristic of the bounding box in the network training process via a hyperparameter and adopts a new positive and negative sample selection mechanism for sample training. Experimental results show that the proposed framework achieves better prediction accuracy and a higher average precision value than those yielded by the classical backbone networks. Moreover, the AIoU method can be easily coupled with existing convolutional neural network architectures and thus possesses the great potential of adaptability in many application fields, such as intelligent transportation.  相似文献   

12.
由于遥感图像中的目标具有方向任意、分布密集和尺度差异大等特点,使得遥感图像目标检测成为一个颇具挑战性的难题。针对该难题,系统梳理了近三年来深度学习遥感图像旋转目标检测的相关工作,首先介绍旋转框的表示方法及其特点;然后按照特征提取网络、旋转锚框和候选框生成、标签分配及采样策略、损失函数四个方面对当前遥感图像旋转目标检测的现有方法进行分析;再对常用的遥感图像旋转目标数据集进行介绍,对比分析不同算法的性能;最后对遥感图像旋转目标检测进行了展望。  相似文献   

13.
目的 海洋中尺度涡自动检测是了解其演变规律,研究其在海洋物质运输和能量传递中的作用的基础。针对海洋中尺度涡形态不规则、结构复杂多变、长宽比不确定,以及涡群海域中尺度涡分布密集导致的检测精度低的问题,提出一种基于深度学习多尺度旋转锚机制的海洋中尺度涡自动旋转检测方法。方法 首先对卫星遥感海平面高度异常数据进行可视化预处理,并采用图像处理策略对数据集进行扩充构建训练集;其次构建了一种基于深度学习多尺度旋转锚机制的中尺度涡自动检测模型,考虑到中尺度涡尺度变化大和其所处海洋环境复杂多变的特点,主干网络采用Retina Net提取中尺度涡特征,同时采用特征金字塔结构融合中尺度涡的低层与高层特征,设计多尺度、多长宽比以及多旋转角度锚点机制实现多尺度旋转检测锚的生成;最后集成分类与回归两个子网络,实现海洋中尺度涡的自动旋转检测。结果 实验结果表明,提出的中尺度涡自动检测方法极大改进了水平检测框存在显著的大纵横比导致检测精度低和检测框嵌套和重叠现象。本文方法最优检测精度为90.22%,与水平检测方法相比,精度提升了8%。在印度洋、太平洋、大西洋和赤道海域进行了海洋中尺度涡的旋转检测实证分析,验证了模型...  相似文献   

14.
目标检测是计算机视觉研究领域的核心问题和最具挑战性的问题之一,随着深度学习技术的广泛应用,目标检测的效率和精度逐渐提升,在某些方面已达到甚至超过人眼的分辨水平.但是,由于小目标在图像中覆盖面积小、分辨率低和特征不明显等原因,现有的目标检测方法对小目标的检测效果都不理想,因此也诞生了很多专门针对提升小目标检测效果的方法....  相似文献   

15.
激光雷达点云3D物体检测,对于小物体如行人、自行车的检测精度较低,容易漏检误检,提出一种多尺度Transformer激光雷达点云3D物体检测方法MSPT-RCNN(multi-scale point transformer-RCNN),提高点云3D物体检测精度.该方法包含两个阶段,即第一阶段(RPN)和第二阶段(RCN...  相似文献   

16.
目标检测逐渐成为视觉研究社区的关键领域,而其挑战之一是检测器难以准确地定位不同尺度的物体.面向图像中的目标检测应用,提出了高分辨率-无锚点框(HOAR)检测策略来应对物体尺度多变的挑战.HOAR将待测图像输入多条通路(对应不同尺度)并行的高分辨率网络,并提取每条通路上的输出特征图作为图像在每种尺度下的深度特征表示;然后...  相似文献   

17.
在人工智能技术的支持下,无人机初步获得智能感知能力,在实际应用中展现出高效灵活的数据收集能力。无人机视角下的目标检测作为关键核心技术,在诸多领域中发挥着不可替代的作用,具有重要的研究意义。为了进一步展现无人机视角下的目标检测研究进展,本文对无人机视角下的目标检测算法进行了全面总结,并对已有算法进行了归类、分析和比较。1)介绍无人机视角下的目标检测概念,并总结无人机视角下目标检测所面临的目标尺度、空间分布、样本数量、类别语义以及优化目标等5大不均衡挑战。在介绍现有研究方法的基础上,特别整理并介绍了无人机视角下目标检测算法在交通监控、电力巡检、作物分析和灾害救援等实际场景中的应用。2)重点阐述从数据增强策略、多尺度特征融合、区域聚焦策略、多任务学习以及模型轻量化等方面提升无人机视角下目标检测性能的方法,总结这些方法的优缺点并分析了其与现存挑战之间的关联性。3)全面介绍基于无人机视角的目标检测数据集,并呈现已有算法在两个较常用公共数据集上的性能评估。4)对无人机视角下目标检测技术的未来发展方向进行了展望。  相似文献   

18.
血细胞检测和计数是血液检验中的一项重要内容,大量细胞显微图像形态多样、目标较小且背景复杂,自动识别血细胞仍然是一项具有挑战性的任务。为解决血细胞检测中复杂小目标识别问题,基于一阶段深度检测YOLO框架,提出了一种新颖的YOLO-Dense网络模型。通过使用[K]-means算法对锚框进行聚类,获得三种不同大小的潜在待识别目标的锚框,并在YOLO基础网络中引入残差模块和特征金字塔的多尺度模块,以提高对小目标的识别精度;通过跳层连接进行残差训练,有效解决深度网络梯度弥散和爆炸等问题;通过在网络架构中增加密集连接模块,使得提出的模型能够有效提升网络推断速度。实验结果表明:YOLO-Dense网络均值平均精度mAP和检测时间分别为0.86和24.9 ms。相比Faster R-CNN和原始的YOLO网络,YOLO-Dense模型在血细胞检测上取得了最好的性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号