首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
由于遥感图像中的目标具有方向任意、分布密集和尺度差异大等特点,使得遥感图像目标检测成为一个颇具挑战性的难题。针对该难题,系统梳理了近三年来深度学习遥感图像旋转目标检测的相关工作,首先介绍旋转框的表示方法及其特点;然后按照特征提取网络、旋转锚框和候选框生成、标签分配及采样策略、损失函数四个方面对当前遥感图像旋转目标检测的现有方法进行分析;再对常用的遥感图像旋转目标数据集进行介绍,对比分析不同算法的性能;最后对遥感图像旋转目标检测进行了展望。  相似文献   

2.
目标检测算法研究综述   总被引:1,自引:0,他引:1       下载免费PDF全文
目标检测是计算机视觉中一个重要问题,在行人跟踪、车牌识别、无人驾驶等领域都具有重要的研究价值。近年来,随着深度学习对图像分类准确度的大幅度提高,基于深度学习的目标检测算法逐渐成为主流。梳理了目标检测算法的发展与现状,并作出展望:总结了传统算法与引入深度学习的目标检测算法的发展、改进与不足,并就此做出对比;最后讨论了基于深度学习的目标检测算法所存在的困难与挑战,并就可能的发展方向进行了展望。  相似文献   

3.
基于卷积神经网络的目标检测研究综述   总被引:1,自引:0,他引:1  
随着训练数据的增加以及机器性能的提高,基于卷积神经网络的目标检测冲破了传统目标检测的瓶颈,成为当前目标检测的主流算法。因此,研究如何有效地利用卷积神经网络进行目标检测具有重要的价值。首先回顾了卷积神经网络如何解决传统目标检测中存在的问题;其次介绍了卷积神经网络的基本结构,叙述了当前卷积神经网络的研究进展以及常用的卷积神经网络;然后重点分析和讨论了两种应用卷积神经网络进行目标检测的思路和方法,指出了目前存在的不足;最后总结了基于卷积神经网络的目标检测,以及未来的发展方向。  相似文献   

4.
在人工智能技术的支持下,无人机初步获得智能感知能力,在实际应用中展现出高效灵活的数据收集能力。无人机视角下的目标检测作为关键核心技术,在诸多领域中发挥着不可替代的作用,具有重要的研究意义。为了进一步展现无人机视角下的目标检测研究进展,本文对无人机视角下的目标检测算法进行了全面总结,并对已有算法进行了归类、分析和比较。1)介绍无人机视角下的目标检测概念,并总结无人机视角下目标检测所面临的目标尺度、空间分布、样本数量、类别语义以及优化目标等5大不均衡挑战。在介绍现有研究方法的基础上,特别整理并介绍了无人机视角下目标检测算法在交通监控、电力巡检、作物分析和灾害救援等实际场景中的应用。2)重点阐述从数据增强策略、多尺度特征融合、区域聚焦策略、多任务学习以及模型轻量化等方面提升无人机视角下目标检测性能的方法,总结这些方法的优缺点并分析了其与现存挑战之间的关联性。3)全面介绍基于无人机视角的目标检测数据集,并呈现已有算法在两个较常用公共数据集上的性能评估。4)对无人机视角下目标检测技术的未来发展方向进行了展望。  相似文献   

5.
深度卷积神经网络在计算机视觉中的应用研究综述   总被引:13,自引:0,他引:13  
随着大数据时代的到来,含更多 隐含层的深度卷积神经网络(Convolutional neural networks, CNNs)具有更复杂的网络结构,与传统机器学习方法相比具有更强大的特征学习和特征表达能力。使用深度学习算法训练的卷积神经网络模型自提出以来在计算机视觉领域的多个大规模识别任务上取得了令人瞩目的 成绩。本文首先简要介绍深度学习和卷积神经网络的兴起与展,概述卷积神经网络的基本模型结构、卷积特征提取和池化操作。然后综述了基于深度学习的卷积神经网络模型在图像分类、物体检测、姿态估计、图像分割和人脸识别等多个计算机视觉应用领域中的研究现状 和发展趋势,主要从典型的网络结构的构建、训练方法和性能表现3个方面进行介绍。最后对目前研究中存在的一些问题进行简要的总结和讨论,并展望未来发展的新方向。  相似文献   

6.
针对当前基于深度学习的目标检测算法采取的特征图融合方式存在缺陷,算法普遍不能很好地应对尺度变化等问题,提出一种跨深度卷积特征增强的目标检测算法CDC-YOLO。对YOLOv3算法进行改进,针对多尺度预测层各自的特点采用与之适应的特征增强模块,采用多通道的跨深度的卷积核并结合空洞卷积并行地提取特征,最终级联起来。该模块能充分利用多尺度多深度特征,形成统一的多尺度特征表达。在VOC2007test上的实验结果表明,提出算法的mAP (均值平均精度)高达82.33%,比原始YOLOv3提升了约2%,且对尺度变化大的物体鲁棒性更强。  相似文献   

7.
深度卷积神经网络的目标检测算法综述   总被引:1,自引:0,他引:1       下载免费PDF全文
目标检测是计算机视觉中的核心任务之一,在智能视频监控、自动化监测、工业检测等领域应用广泛。近些年来,随着深度学习的快速发展,基于深度卷积神经网络的目标检测算法逐渐替代了传统的目标检测算法,成为了该领域的主流算法。介绍了目标检测算法的常用数据集和性能评价指标,介绍了卷积神经网络的发展,重点分析比较了两阶段目标检测算法和单阶段目标检测算法,展望了基于深度卷积神经网络的目标检测算法未来的发展。  相似文献   

8.
由于现有的基于深度神经网络的显著性对象检测算法忽视了对象的结构信息,使得显著性图不能完整地覆盖整个对象区域,导致检测的准确率下降。针对此问题,提出一种结构感知的深度显著性对象检测算法。算法基于一种多流结构的深度神经网络,包括特征提取网络、对象骨架检测子网络、显著性对象检测子网络和跨任务连接部件四个部分。首先,在显著性对象子网络的训练和测试阶段,通过对象骨骼检测子网络学习对象的结构信息,并利用跨任务连接部件使得显著性对象检测子网络能自动编码对象骨骼子网络学习的信息,从而感知对象的整体结构,克服对象区域检测不完整问题;其次,为了进一步提高所提方法的准确率,利用全连接条件随机场对检测结果进行进一步的优化。在三个公共数据集上的实验结果表明,该算法在检测的准确率和运行效率上均优于现有存在的基于深度学习的算法,这也说明了在深度神经网络中考虑对象结构信息的捕获是有意义的,可以有助于提高模型准确率。  相似文献   

9.
刘子威  邓春华  刘静 《计算机应用》2020,40(12):3526-3533
基于无锚框深度学习的目标检测是一种主流的单阶段目标检测算法。融合多层监督信息的沙漏网络结构能够显著提升无锚框目标检测算法的精度,然而其速度却远低于同层次的普通网络的速度,并且不同尺度目标间的特征会互相干扰。针对上述问题,提出了一种非对称沙漏网络结构的目标检测算法。该算法在融合不同网络层的特征时不受形状大小的约束,能够快速高效抽象出网络的语义信息,使模型更容易学习到各种尺度之间的差异。针对不同尺度目标检测问题,设计了一种多尺度输出的沙漏网络结构用来解决不同尺度目标间特征互相干扰的问题,并精细化输出的检测结果。另外,针对多尺度输出使用了一种特殊的非极大值抑制算法以提高检测算法的召回率。实验结果表明,所提算法在COCO数据集上的AP50指标达到61.3%,相较于无锚框网络CenterNet提升了4.2个百分点。所提算法在精度与时间的平衡上超越了原始算法,尤其适用于对工业场景的目标进行实时检测。  相似文献   

10.
11.
遥感图像分析在国土资源管理、海洋监测等领域有着极为广阔的应用前景。深度学习技术已在图像处理领域取得突破性进展,然而,遥感图像固有的尺寸大、目标小而密集等特点,使得将面向普通图像的深度学习方法用于遥感目标检测普遍存在定位不准确、小目标检测难、大图检测精度差等问题。针对上述难题, 提出了一种新型遥感图像目标检测算法DFS。与传统机器学习方法相比,DFS 设计了新的维度聚类模块、定制损失函数和滑动窗口分割检测机制。其中,维度聚类模块通过设计聚类机制优化定制先验框,提高定位精度;定制损失函数提高对船只等小目标的检测精度;滑动窗口分割检测解决大图检测精度低的问题。在经典遥感数据集上开展的实验对比表明,与YOLOv2相比,DFS算法的mAP提高了256%,小目标检测效率及大图检测效能大幅提高。  相似文献   

12.
目的 火焰检测可有效防止火灾的发生。针对目前火焰检测方法,传统图像处理技术的抗干扰能力差、泛化性不强,检测效果对数据波动比较敏感;机器学习方法需要根据不同的场景设定并提取合适火焰的特征,过程比较繁琐。为此提出一种基于Faster R-CNN的多类型火焰检测方法,避免复杂的人工特征提取工作,在面对复杂背景、光照强度变化和形态多样的火焰图像时依然保证较好的检测精度。方法 基于深度学习的思想,利用卷积神经网络自动学习获取图像特征。首先,利用自建数据集构建视觉任务。根据火焰的尖角特性、直观形态和烟雾量等,将火焰类数据划分为单尖角火焰、多尖角火焰和无规则火焰3类。此外,通过深度网络特征可视化实验发现,人造光源与火焰在轮廓上具有一定的相似性,为此建立了人造光源圆形和方形两个数据集作为干扰项来保证检测模型的稳定性;然后,细化训练参数并调整预训练的卷积神经网络结构,改动分类层以满足特定视觉任务。将经过深度卷积神经网络中卷积层和池化层抽象得到的图像特征送入区域生成网络进行回归计算,利用迁移学习的策略得到每一类目标物体相应的探测器;最后,得到与视觉任务相关的目标检测模型,保存权重和偏置参数。并联各类目标物体的子探测器作为整体探测器使用,检测时输出各类探测器的分数,得分最高的视为正确检测项。结果 首先,利用训练好的各探测器与相应测试集样本进行测试,然后,再利用各类目标物的测试集来测试其他类探测器的检测效果,以此证明各探测器之间的互异性。实验结果表明,各类探测器都具有较高的专一性,大大降低了误判的可能性,对于形变剧烈和复杂背景的火焰图像也具有良好的检测准确率。训练得到的检测模型在应对小目标、多目标、形态多样、复杂背景和光照变化等检测难度较大的情况时,均能获得很好的效果,测试集结果表明各类探测器的平均准确率提高了3.03% 8.78%不等。结论 本文提出的火焰检测方法,通过挖掘火焰的直观形态特征,细分火焰类别,再利用深度卷积神经网络代替手动特征设置和提取过程,结合自建数据集和根据视觉任务修改的网络模型训练得到了检测效果良好的多类型火焰检测模型。利用深度学习的思想,避免了繁琐的人工特征提取工作,在得到较好的检测效果的同时,也保证了模型具有较强的抗干扰能力。本文为解决火焰检测问题提供了更加泛化和简洁的解决思路。  相似文献   

13.
《Advanced Robotics》2012,26(24):1264-1280
ABSTRACT

To collect a human-annotated dataset for training deep convolutional neural networks is a very time-consuming and laborious process. To reduce this burden, we previously proposed an automated annotation by placing one visual marker above the detection target object in the training phase. However, in this approach, occasionally the marker hides the object surface. To avoid this issue, we propose placing a pedestal with multiple markers at the bottom of the object. If we use multiple markers, the object can be annotated even when the object hides some of the markers. Besides that, the simple modification of placing the markers on the bottom allows the use of simple background masking to avoid the neural network learning the remaining markers in the training image as a feature of the object. Background masking can completely remove the markers during the training process. Experiments showed the proposed vision system using our automatic object annotation outperformed the vision system using manual annotation in terms of object detection, orientation estimation, and 2D position estimation while reducing the time required for dataset collection from 16.1 hours to 7.30 hours.  相似文献   

14.
在R-CNN框架提出后,基于深度学习的目标检测框架逐渐成为主流,可分为基于候选窗口和基于回归两类。近两年来,在Faster R-CNN、YOLO、SSD等经典的基于深度学习目标检测框架的基础上,出现了大量的优秀框架。根据优化方法对近几年提出的框架进行了梳理和总结。在PASCAL_VOC和MS COCO等主流测试集上对目标检测方法的性能及优缺点进行了对比分析。讨论了目标检测领域当前面临的困难与挑战,对可能的发展方向进行了展望。  相似文献   

15.
基于深度学习的目标检测算法综述   总被引:2,自引:0,他引:2  
传统目标检测算法大多基于滑动窗口和人工特征提取,存在计算复杂度高和在复杂场景下鲁棒性差的缺点。近年来,研究人员将深度学习技术应用于目标检测领域,显著提高了算法性能。相比传统算法,基于深度学习的目标检测算法具有速度快、准确性高和在复杂条件下鲁棒性强的优点。从评价指标、公开数据集、传统算法框架等方面对目标检测任务进行阐述,按照是否存在显式的区域建议和是否定义先验锚框两种分类标准,对现有基于深度学习的目标检测算法进行分类,分别介绍算法的演进路线并总结算法机制、优势、局限性及适用场景。在此基础上,分析对比代表性算法在公开数据集中的表现,并对基于深度学习的目标检测的未来研究方向进行展望。  相似文献   

16.
目的 水泥厂作为重要的污染源企业需要对其进行统计和监管,近几年随着卫星遥感技术的发展和遥感影像分辨率的提高,使得基于卫星影像进行水泥厂目标检测成为可能。但是由于遥感图像中建筑目标的环境复杂多变,同时各个水泥厂在生产规模、设备构成、厂区结构、坐落方位上存在较大差异,图像表观上的形态各异和复杂环境干扰使得传统图像识别方法难以设计和提取有效特征。鉴于深度学习在视觉目标检测领域的成功应用,本文将研究应用深度卷积神经网络方法,实现在卫星图像上识别与定位水泥厂目标,为环保部门提供一种高效便捷的水泥厂目标检测和统计方法。方法 基于面向目标检测与定位的Faster R-CNN深度学习框架,以准确检测与定位水泥厂区域为目的,以京津冀地区的水泥厂位置作为训练和测试数据集,选用3种结构不同的提取特征卷积神经网络模型进行了对比实验。并针对小样本训练容易出现的过拟合和误检问题,采用图像去雾预处理、数据扩充、引入负样本等技术进一步提升模型能力。结果 测试集实验结果表明ResNet特征提取网络效果最好,准确率达到74%。为了进一步提高检出率并降低误检率,引入3种模型能力提升方法,在扩充检测数据集中的检出率达到94%,误检率降低到14%;在全球水泥厂数据集中的图像检出率达到96%,万幅随机图像的误检数量为30幅(0.3%)。对上海地区的卫星图像进行扫描检测,结果检测出11个已登记的水泥厂(共登记16个),另外还检测出17个未登记的水泥厂。结论 对于卫星地图上水泥厂这种具有特殊建筑构造但也存在厂区几何形状各异、所处地理环境复杂、随季节性变化等特点,本文提出的基于深度卷积网络的卫星图像水泥厂检测方法,能够自动学习提取有效的图像特征并对目标进行准确检测。针对小样本训练问题,引入3种方法显著提高了模型的检测精度。在模型泛化能力测试中,经过优化后的模型在水泥厂建筑目标检测任务中表现良好,具有重要的应用价值。  相似文献   

17.
目标检测是计算机视觉的核心,在图像识别、行人检测、大规模场景识别等方面具有广泛应用,提升目标检测的速度与精度可以拓展计算机视觉的应用范围。大数据的出现以及深度学习的发展为目标检测研究注入了新的动力。传统的目标检测主要使用基于手工特征配合机器学习的方法,即Feature-Based方法。目前的检测算法主要以卷积神经网络(CNN)为核心。分析了Feature-Based方法检测效果差的原因并提出改进方法,详细讨论了CNN网络衍生出的TWO-STATE方法和ONE-STATE方法,介绍了每种方法的联系以及相比之前方法的改进,详细描述了其网络的机理与检测过程,指出了每种方法的检测效果与不足。总结了目标检测方法在一些数据集上的检测效果与仍然存在的问题。  相似文献   

18.
随着大数据、算力、深度学习的发展,基于深度学习的目标检测算法成为该领域主流算法,其性能远超传统算法.为了梳理算法发展脉络、跟踪最新研究成果、促进目标检测领域的研究,分别从两阶段/单阶段和an-chor-based/anchor-free两个维度,对这两种不同分类标准下实现矩形框或近似矩形框标注的代表性目标检测算法进行综述,分析了算法流程、特点、演进及其性能,并对其重要改进版本进行了归类分析.最后总结了算法的优缺点、局限性及适用场景,并展望了未来目标检测领域的发展趋势,提出了几个重要的研究方向.  相似文献   

19.
视觉显著性物体检测是对人类视觉和认知系统的模拟,而深度学习则是对人类大脑计算方式的模拟,将两者有机结合可以有效推动计算机视觉的发展。视觉显著性物体检测的任务是从图像中定位并提取具有明确轮廓的显著性物体实例。随着深度学习的发展,视觉显著性物体检测的精度和效率都得到巨大提升,但仍然面临改进主流算法性能、减少对像素级标注样本的依赖等主要挑战。针对上述挑战,本文从视觉显著性物体检测思想与深度学习方法融合策略的角度对相关论述进行分类总结。1)分析传统显著性物体检测方法带来的启示及其缺点,指出视觉显著性物体检测的核心思路为多层次特征的提取、融合与修整;2)从改进特征编码方式与信息传递结构、提升边缘定位精度、改善注意力机制、提升训练稳定性和控制噪声的角度对循环卷积神经网络、全卷积神经网络和生成对抗网络3种主流算法的性能提升进行分析,从优化弱监督样本处理模块的角度分析了减少对像素级标注样本依赖的方法;3)对协同显著性物体检测、多类别图像显著性物体检测以及未来的研究问题和方向进行介绍,并给出了可能的解决思路。  相似文献   

20.
刚体目标姿态作为计算机视觉技术的重点研究方向之一,旨在确定场景中3维目标的位置平移和方位旋转等多个自由度,越来越多地应用在工业机械臂操控、空间在轨服务、自动驾驶和现实增强等领域。本文对基于单幅图像的刚体目标姿态过程、方法分类及其现存问题进行了整体综述。通过利用单幅刚体目标图像实现多自由度姿态估计的各类方法进行总结、分类及比较,重点论述了姿态估计的一般过程、估计方法的演进和划分、常用数据集及评估准则、研究现状与展望。目前,多自由度刚体目标姿态估计方法主要针对单一特定应用场景具有较好的效果,还没有通用于复合场景的方法,且现有方法在面对多种光照条件、杂乱遮挡场景、旋转对称和类间相似性目标时,估计精度和效率下降显著。结合现存问题及当前深度学习技术的助推影响,从场景级多目标推理、自监督学习方法、前端检测网络、轻量高效的网络设计、多信息融合姿态估计框架和图像数据表征空间等6个方面对该领域的发展趋势进行预测和展望。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号