首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 984 毫秒
1.
龚浩田  张萌 《计算机科学》2021,48(8):106-110
针对基于关键点的目标检测参数量大、检测框误匹配的问题,提出一种轻量级的基于关键点检测的无锚框目标检测算法.首先将输入图片输入优化过的特征提取算法,通过级联角池化与中心池化,输出3个关键点的热力图与它们的嵌入向量;然后通过嵌入向量匹配热力图并画出检测框.文中的创新点在于将SqueezeNet中的轻量级模块firemodule适配至CenterNet,并用深度可分离卷积代替主干网的常规卷积,同时,针对CenterNet的检测框误匹配问题优化了算法输出形式与训练时的损失函数.实验结果表明,改良后的算法使得原有的CenterNet算法模型尺寸缩小为原来的1/7,同时检测精度与速度较YOLOv3,CornerNet-Lite等相同量级的算法仍有所提高.  相似文献   

2.
复杂场景下小目标检测是目标检测领域的研究难点和热点。传统的two-stage和one-stage检测模型都是通过预先设定锚点框与真实目标框的交并比(intersection over union,IoU)阈值来划分正负样本集,同时这组预定义的固定锚点框还用于获取候选框,进而得到检测结果。然而,在复杂场景下,预先设定的IoU阈值会带来正负样本不均衡问题;针对小尺寸目标(船舶)检测,预定义的锚点框也很难保证覆盖目标的位置和密度,因此限制了检测模型的准确率。为了解决上述问题,提出自适应锚点框(adaptive anchor boxes,AAB)的方法优化目标检测网络,采用基于形状相似度距离的聚类算法生成锚点框,提高目标区域定位技术;采用利用聚类的锚点框计算自适应IoU阈值(adaptive threshold selection,ATS),划分正负样本,保证样本均衡。对复杂场景下的小目标(船舶目标)进行检测,实验结果表明,采用自适应锚点框方法和自适应阈值选择方法的目标检测模型在复杂场景中检测均能提升准确,对比faster R-CNN、FPN、Yolo3和pp-Yolo,融合了上述新方法的模型均提升了检测准确率,分别提升了9.6、2.6、9.8和9.9个百分点。  相似文献   

3.
针对手工设计神经网络结构成本较高、基于锚框的分类回归任务计算量较大以及小目标检测能力较弱的问题,文中使用基于神经网络结构搜索的EfficientNet-B3作为特征提取网络,改进基于双向特征金字塔网络的特征融合方法作为特征融合网络,利用关键点估计代替锚框,执行分类与回归任务,提出基于关键点估计的实时道路元素检测算法.在BDD100K数据集上的实验表明,文中算法在实时检测的基础上可达到较优的检测效果,在小目标上检测精度较高.  相似文献   

4.
针对现有单阶段目标检测算法锚点框特征表达不足影响检测精度的问题,提出了一种增强锚点框特征表达的算法,其包含注意力机制模块和部件感知模块.首先,注意力机制模块根据各个锚点框的不同属性自适应地提供不同的特征表达.然后,部件感知模块准确地提取各个锚点框内部的判别性部件特征以作为各个锚点框进行预测所需的特有特征.将所提设计与现有SSD算法结合并在多个公开的目标检测数据集上进行实验,结果表明,所提算法能够显著提高单阶段目标检测算法的精度并维持实时运行速度(14 ms);进一步地,在扩展实验上的结果表明,所提算法也能够改善生成的区域建议框的召回率及两阶段目标检测算法的精度.  相似文献   

5.
抓取是机器人在服务与工业领域中进行人机协调的重要能力,得到一个准确的抓取检测结果是机械臂能否完成抓取任务的关键。为了提高抓取检测的准确率以及实时性,提出了一种由CenterNet改进的基于关键点估计的抓取检测算法。在网络的特征提取层使用了特征融合方法融合不同的特征图,减少特征的丢失;增加了角度预测分支用来预测抓取角度;使用了改进的Focal Loss,减少由于正负样本不均衡导致的模型准确度降低。与基于锚框的抓取检测算法穷举目标潜在位置再进行回归的方式不同,基于关键点估计的抓取检测算法直接预测抓取关键点,并从关键点预测抓取框的尺寸、偏移量以及抓取角度。实验结果表明,与基于锚框的抓取检测相比,该方法更加高效、准确、简洁。在康奈尔数据集上,此模型达到了97.6%的准确率以及42 frame/s的检测速度。  相似文献   

6.
运动员检测是篮球运动智能化分析的基础,由于篮球视频存在场景复杂、目标运动快速、目标间遮挡严重的问题,现有目标检测技术不能实现对密集遮挡运动员的精确检测.为此,提出一种基于自适应关键点热图的遮挡篮球运动员检测算法.首先通过预先构建的全卷积编码-解码网络进行运动员特征提取,利用高斯核函数在特征图上渲染关键点热图,热图的渲染采用自适应策略,高斯核半径随着目标宽和高的变化而变化,能够加快网络收敛;然后在热图中提取运动员中心点,回归得到运动员宽高、位置等信息,省去了基于锚框检测中复杂耗时的后处理过程,更利于在遮挡条件下区分2个运动员.在篮球运动数据集BasketballPlayer上进行实验的结果表明,在复杂篮球视频场景下,该算法能有效地解决密集遮挡运动员之间漏检、误检和检测精度不高的问题,处理速度可达到26帧/s.  相似文献   

7.
针对经典的有锚框检测算法RetinaNet、无锚框检测算法FCOS等目标检测算法中存在漏检以及重复检测的问题,提出一种自适应特征融合与cosIoU-NMS的目标检测算法.首先采用自适应特征融合模块对多尺度特征中相邻3层特征加权融合,获取丰富的上下文信息和空间信息;然后采用cosIoU计算检测框之间的余弦相似度与重叠面积,使目标定位更准确;最后使用cosIoU-NMS代替Greedy-NMS抑制置信度分数较高的冗余框,保留更准确的检测结果.以RetinaNet和FCOS为基准,在PASCAL VOC数据集上的实验结果表明,所提算法的检测精度达到81.3%和82.3%,分别提升2.8个百分点和1.2个百分点;在MSCOCO数据集上检测精度达到36.8%和38.0%,分别提升1.0个百分点和0.7个百分点;该算法能够增强特征表征能力,筛除多余的检测框,有效地提高检测性能.  相似文献   

8.
基于深度学习的目标检测方法是目前计算机视觉领域的热点,在目标识别、跟踪等领域发挥了重要的作用.随着研究的深入开展,基于深度学习的目标检测方法主要分为有锚框的目标检测方法和无锚框的目标检测方法,其中无锚框的目标检测方法无需预定义大量锚框,具有更低的模型复杂度和更稳定的检测性能,是目前目标检测领域中较前沿的方法.在调研国内外相关文献的基础上,梳理基于无锚框的目标检测方法及各场景下的常用数据集,根据样本分配方式不同,分别从基于关键点组合、中心点回归、Transformer、锚框和无锚框融合等4个方面进行整体结构分析和总结,并结合COCO(Common objects in context)数据集上的性能指标进一步对比.在此基础上,介绍了无锚框目标检测方法在重叠目标、小目标和旋转目标等复杂场景情况下的应用,聚焦目标遮挡、尺寸过小和角度多等关键问题,综述现有方法的优缺点及难点.最后对无锚框目标检测方法中仍存在的问题进行总结并对未来发展的应用趋势进行展望.  相似文献   

9.
针对驾驶场景中目标检测卷积神经网络模型检测精度较低的问题,提出一种基于改进RefineDet网络结构的多尺度特征融合目标检测方法。在RefineDet网络结构中嵌入LFIP(Light-weight Featurized Image Pyramid,轻量级特征化的图像金字塔)网络,将LFIP网络生成的多尺度特征图与RefineDet中的ARM(Anchor Refinement Module,锚点框修正模块)输出的主特征图相融合,提升特征层中锚点框初步分类和回归的输出效果,为ODM(Object Detection Module,目标检测模块)模块提供修正的锚点框以便于进一步回归和多类别预测;在RefineDet网络结构中的ODM之后嵌入多分支结构RFB(Receptive Field Block,感受野模块),在检测任务中获得不同尺度的感受野以改善主干网络中提取的特征。将模型中的激活函数替换为带有可学习参数的非线性激活函数PReLU(Parametric Rectified Linear Unit,参数化修正线性单元),加快网络模型的收敛速度;将RefineDet的边界框回归损失函数替换为排斥力损失函数Repulsion Loss,使目标检测中的某预测框更靠近其对应的目标框,并使该预测框远离附近的目标框及预测框,可以提升遮挡情况下目标检测的精度;构建驾驶视觉下的目标检测数据集,共计48 260张,其中38 608张作为训练集,9 652张作为测试集,并在主流的GPU硬件平台进行验证。该方法的mAP为85.59%,优于RefineDet及其他改进算法;FPS为41.7 frame/s,满足驾驶场景目标检测的应用要求。实验结果表明,该方法在检测速度略微下降的情况,能够较好地提升驾驶视觉下的目标检测的精确度,并能够一定程度上解决驾驶视觉下的遮挡目标检测和小目标检测的问题。  相似文献   

10.
针对复杂环境下行人目标因检测器漏检和频繁遮挡而导致的数据关联不正确、跟踪实时性差的问题,提出了一种基于免锚检测的多目标跟踪算法。算法采用预测目标中心点热力图的方法实现目标检测定位,改善了因锚点框回归歧义所导致的漏检问题。同时在检测模型中嵌入深度表观特征提取分支,构建联合检测与跟踪的多任务网络用于提升实时性。为解决跟踪阶段行人因遮挡而引起的数据关联错误和轨迹丢失问题,提出加权多特征融合的相似性度量算法,综合多种关键特征评估检测与轨迹的匹配程度,显著提升数据关联正确性;提出基于存活期的跟踪状态更新方法,有效找回丢失轨迹,提升跟踪鲁棒性。在MOT数据集上对跟踪性能进行测试,实验结果表明,算法能够有效应对遮挡,并实现长时间稳定跟踪,兼顾了实时性与准确性。  相似文献   

11.
基于关键点的Anchor Free目标检测模型综述   总被引:1,自引:0,他引:1  
目标检测是计算机视觉应用的基础, 基于锚框的一些目标检测算法已难以满足目标检测中对目标处理的效率、性能等诸多方面的要求, 而anchor free方法逐渐广泛应用于目标检测. 本文首先重点介绍了CornerNet、CenterNet、FCOS模型的一系列基于关键点的anchor free目标检测方法, 综述了算法思路及其优缺点; 然后分别对基于锚框和基于关键点的目标检测算法在同一个数据集上作了性能比较和分析; 最后对基于关键点的目标检测进行了总结, 并展望了目标检测的未来发展方向.  相似文献   

12.
目的 目前主流物体检测算法需要预先划定默认框,通过对默认框的筛选剔除得到物体框。为了保证足够的召回率,就必须要预设足够密集和多尺度的默认框,这就导致了图像中各个区域被重复检测,造成了极大的计算浪费。提出一种不需要划定默认框,实现完全端到端深度学习语义分割及物体检测的多任务深度学习模型(FCDN),使得检测模型能够在保证精度的同时提高检测速度。方法 首先分析了被检测物体数量不可预知是目前主流物体检测算法需要预先划定默认框的原因,由于目前深度学习物体检测算法都是由图像分类模型拓展而来,被检测数量的无法预知导致无法设置检测模型的输出,为了保证召回率,必须要对足够密集和多尺度的默认框进行分类识别;物体检测任务需要物体的类别信息以实现对不同类物体的识别,也需要物体的边界信息以实现对各个物体的区分、定位;语义分割提取了丰富的物体类别信息,可以根据语义分割图识别物体的种类,同时采用语义分割的思想,设计模块提取图像中物体的边界关键点,结合语义分割图和边界关键点分布图,从而完成物体的识别和定位。结果 为了验证基于语义分割思想的物体检测方法的可行性,训练模型并在VOC(visual object classes)2007 test数据集上进行测试,与目前主流物体检测算法进行性能对比,结果表明,利用新模型可以同时实现语义分割和物体检测任务,在训练样本相同的条件下训练后,其物体检测精度优于经典的物体检测模型;在算法的运行速度上,相比于FCN,减少了8 ms,比较接近于YOLO(you only look once)等快速检测算法。结论 本文提出了一种新的物体检测思路,不再以图像分类为检测基础,不需要对预设的密集且多尺度的默认框进行分类识别;实验结果表明充分利用语义分割提取的丰富信息,根据语义分割图和边界关键点完成物体检测的方法是可行的,该方法避免了对图像的重复检测和计算浪费;同时通过减少语义分割预测的像素点数量来提高检测效率,并通过实验验证简化后的语义分割结果仍足够进行物体检测任务。  相似文献   

13.
黄凤琪  陈明  冯国富 《计算机工程》2021,47(10):269-275,282
针对YOLO目标检测算法存在边界框定位不准确及对小目标检测精度低的问题,提出一种改进的YOLO目标检测算法dcn-YOLO。使用k-means++算法聚类出更符合数据集尺寸的锚盒,以降低初始点对聚类结果的影响并加快网络训练收敛速度。构建残差可变形卷积模块res-dcn,分别采用将其嵌入YOLO第一特征提取头模块中和替换3个YOLO特征提取头模块的方式,构建两种改进的dcn-YOLO算法,使网络可以自适应地学习特征点的感受野,从而对不同尺寸和形状的目标提取更有效的特征,提高检测精度。在VOC数据集上的实验结果表明,该算法能有效提高目标检测精度,mAP达到82.6%,相比YOLO、SSD、Faster R-CNN,分别高出了2.1、5.2、9.4个百分点。  相似文献   

14.
陈宏彩  程煜  张常有 《软件学报》2017,28(S1):107-114
我国机动车保有量急速增长,产生一系列严重的安全与交通问题.与此同时,视频图像文件呈爆炸式增长,为公安的监控、刑侦以及案件的侦破带来了很大的困扰.车辆目标检测与识别越来越受到人们的关注,研究一种高效而准确的车辆目标检测方法意义重大.在YOLO目标检测框架的基础上,设计了一种卷积神经网络的车辆检测及其车型粗粒度识别方法.网络结构采用多层感知机卷积层,增加特征映射的非线性处理能力;移除原来模型中的全连接层,利用锚点框预测目标的边界框,在降低模型复杂度的同时提高了目标检测的召回率.实验结果表明,与主流的目标检测方法相比,该车辆目标检测方法在处理速度和准确度上都有提高,在迭代20 000次的情况下,平均准确率为94.7%.  相似文献   

15.
在智能交通领域使用深度学习的方法进行目标检测已成为研究热点。当下经典的目标检测算法,无论是基于回归的单阶目标检测模型还是基于候选区域的二阶段目标检测模型,大部分是利用大量预定义的先验框anchor枚举可能的位置、尺寸和纵横比的方法来搜索对象,往往会造成正负样本严重不均衡的问题,模型的性能和泛化能力也受到anchor自身设计的限制。针对基于anchor的目标检测算法存在的问题,利用单阶目标检测网络RetinaNet,对交通场景中的车辆、行人和骑行者建立基于anchor-free的目标检测模型,采用逐像素预测的方式处理目标检测问题,并添加中心性预测分支,提升检测性能。实验表明,与基于anchor的原RetinaNet算法相比,改进的基于anchor-free的目标检测模型算法能够对交通场景中的车辆、行人、骑行者实现更好的识别。  相似文献   

16.
田卓钰  马苗  杨楷芳 《软件学报》2022,33(7):2633-2645
智慧考场是智慧校园的重要组成部分,准确、快速地检测考场中的学生状态,是智慧考场应用的基本任务和关键环节.标准化考场中的考生分布相对密集且成像尺寸差异较大,而现有目标检测算法未充分考虑真实考场的环境特征,很难精确、实时地检测出考生目标,加之大部分目标检测算法需对不同目标手工设计先验锚框,模型部署范围受限.针对以上问题,提出一种高效的无锚框全卷积目标检测模型.该模型采用全卷积网络对输入图像进行逐像素预测,在可能存在目标的区域回归其包围框.在该模型中,设计了基于级联注意力的特征增强模块,通过逐级细化修正特征增强特征图的判别性,有效地提高考生目标识别精度;另一方面,针对真实考场中大量交叠目标检测问题,提出了点监督机制,以进一步提升交叠多目标的识别效果;最后,在构建的标准化考场检测专用数据集上,对所提模型进行验证.实验结果表明,与当前最先进的目标检测模型相比,针对真实复杂的考场环境特征提出的基于级联注意力和点监督机制的全卷积目标检测模型的m AP指标为92.9%,检测速度为22.1 f/s,泛化能力突出,综合效果最优.  相似文献   

17.
目的 在基于深度学习的目标检测模型中,浅层特征图包含更多细节但缺乏语义信息,深层特征图则相反,为了利用不同深度特征图的优势,并在此基础上解决检测目标的多尺度问题,本文提出基于卷积核金字塔和空洞卷积的单阶段目标检测模型。方法 所提模型采用多种方式融合特征信息,先使用逐像素相加方式融合多层不同大小的特征图信息,然后在通道维度拼接不同阶段的特征图,形成具有丰富语义信息和细节信息的信息融合特征层作为模型的预测层。模型在锚框机制中引入卷积核金字塔结构,以解决检测目标的多尺度问题,采用空洞卷积减少大尺寸卷积核增加的参数量,合理地降低锚框数量。结果 实验结果表明,在PASCAL VOC2007测试数据集上,所提检测框架在300×300像素的输入上检测精度达到79.3% mAP(mean average precision),比SSD(single shot multibox detector)高1.8%,比DSSD(deconvolutional single shot detector)高0.9%。在UCAS-AOD遥感数据测试集上,所提模型的检测精度分别比SSD和DSSD高2.8%和1.9%。在检测速度上,所提模型在Titan X GPU上达到21帧/s,速度超过DSSD。结论 本文模型提出在两个阶段融合特征信息并改进锚框机制,不仅具有较快的检测速度和较高的精度,而且较好地解决了小目标以及重叠目标难以被检出的问题。  相似文献   

18.
基于旋转框精细定位的遥感目标检测方法研究   总被引:1,自引:0,他引:1       下载免费PDF全文
遥感图像中的目标往往呈现出任意方向排列,而常见的目标检测算法均采用水平框检测,并不能满足这类场景的应用需求.因此提出一种旋转框检测网络R2-FRCNN.该网络利用粗调与细调两阶段实现旋转框检测,粗调阶段将水平框转换为旋转框,细调阶段进一步优化旋转框的定位.针对遥感图像存在较多小目标的特点,提出像素重组金字塔结构,融合深浅层特征,提升复杂背景下小目标的检测精度.此外,为了在金字塔各层中提取更加有效的特征信息,在粗调阶段设计一种积分与面积插值法相结合的感兴趣区域特征提取方法,同时在细调阶段设计旋转框区域特征提取方法.最后在粗调和细调阶段均采用全连接层与卷积层相结合的预测分支,并且利用Smooth Ln作为网络的回归损失函数,进一步提升算法性能.提出的网络在大型遥感数据集DOTA上进行评估,评估指标平均准确率达到0.7602.对比实验表明了R2-FRCNN网络的有效性.  相似文献   

19.
基于特征轮廓的灰度图像定位三维物体方法   总被引:1,自引:0,他引:1  
讨论了一种基于特征轮廓的从三维灰度图像确定三维物体位置和姿态的方法,该方法首先建立物体的三维网页模型,检测模型上的特征点,并建立该物体的特征轮廓模型,然后检测输入图像中物体上的特征点,形成特征轮廓,并与特征轮廓模型相匹配,就可得到该物体在三维空间中的姿态;最后使用最小二乘法对物体进行精确定位,实验证明,该方法在物体遮挡情况下不是很严重时,可以快速精确地从灰度图像定位三维物体。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号