首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 375 毫秒
1.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

2.
在图像和视频序列中进行行人检测时,存在行人姿态和尺度多样及行人遮挡的问题,导致YOLOv4算法对部分行人检测不准确,存在误检和漏检的情况。针对这一问题,提出了基于YOLOv4改进算法的复杂行人检测模型。首先,使用改进的k-means聚类算法对行人数据集真实框尺寸进行分析,根据聚类结果确定先验框尺寸;其次,利用PANet进行多尺度特征融合,增强对多姿态、多尺度行人目标的敏感度,以提高检测效果;最后,针对行人遮挡问题,使用斥力损失函数使预测框尽可能地靠近正确的目标。实验表明,相比于YOLOv4和其他行人检测模型,新提出的检测模型具有更好的检测效果。  相似文献   

3.
针对YOLOv4在自建的汽车钢铁零件表面缺陷数据集中检测精度不足的问题,利用深度学习的优势,提出一种基于改进YOLOv4的汽车钢铁零件表面缺陷检测方法。首先采用加权K-means算法确定初始anchors预选框,增强anchors框和特征图尺寸的匹配精度,提高检测效率;然后在YOLOv4主干网络的残差单元中引入SE模块,增加有用特征的权重,抑制无效特征的权重来提高检测精度;最后在76×76的特征图后连接RFB-s模块,增强对小目标信息的特征提取能力。实验结果表明,针对自建汽车零件表面缺陷数据集有无缺陷单类检测问题,改进算法比原始YOLOv4的mAP50值提高了4.3个百分点,对小目标具有更好的检测效果。这说明改进算法能满足针对特定的汽车钢铁零件表面缺陷检测问题下的检测速度和精度要求,有效解决了实际问题。针对COCO数据集多分类问题,改进后模型的mAP50值比原始YOLOv4提高了0.2个百分点,FPS值达到20,说明改进算法能够迁移到其他数据集,验证了该算法的泛化性。  相似文献   

4.
针对深度学习算法中目标检测网络模型在复杂环境下识别交通标志的难点,对YOLOv3模型迁移学习算法的基本特点展开研究,构建并划分了复杂环境下中国交通标志数据集,并通过引入特征尺度的概念进一步改进YOLOv3算法,使数据集能够更好地处理各种复杂环境带来的影响。通过对比实验,证明改进后的YOLOv3算法对复杂环境下交通标志检测的效果明显优于标准YOLOv3算法及SSD算法,获得了更高的检测精度和更短的检测时间。  相似文献   

5.
朱繁  王洪元  张继 《计算机应用》2019,39(11):3210-3215
针对复杂场景下行人检测效果差的问题,采用基于深度学习的目标检测中领先的研究成果,提出了一种基于改进Mask R-CNN框架的行人检测算法。首先,采用K-means算法对行人数据集的目标框进行聚类得到合适的长宽比,通过增加一组长宽比(2:5)使12种anchors适应图像中行人的尺寸;然后,结合细粒度图像识别技术,实现行人的高定位精度;其次,采用全卷积网络(FCN)分割前景对象,并进行像素预测获得行人的局部掩码(上半身、下半身),实现对行人的细粒度检测;最后,通过学习行人的局部特征获得行人的整体掩码。为了验证改进算法的有效性,将其与当前具有代表性的目标检测方法(如更快速的区域卷积神经网络(Faster R-CNN)、YOLOv2、R-FCN)在同数据集上进行对比。实验结果表明,改进的算法提高了行人检测的速度和精度,并且降低了误检率。  相似文献   

6.
行人检测技术在智能交通系统、智能安防监控和智能机器人等领域均表现出了极高的应用价值,已经成为计算机视觉领域的重要研究方向之一。得益于深度学习的飞速发展,基于深度卷积神经网络的通用目标检测模型不断拓展应用到行人检测领域,并取得了良好的性能。但是由于行人目标内在的特殊性和复杂性,特别是考虑到复杂场景下的行人遮挡和尺度变化等问题,基于深度学习的行人检测方法也面临着精度及效率的严峻挑战。本文针对上述问题,以基于深度学习的行人检测技术为研究对象,在充分调研文献的基础上,分别从基于锚点框、基于无锚点框以及通用技术改进(例如损失函数改进、非极大值抑制方法等)3个角度,对行人检测算法进行详细划分,并针对性地选取具有代表性的方法进行详细结合和对比分析。本文总结了当前行人检测领域的通用数据集,从数据构成角度分析各数据集应用场景。同时讨论了各类算法在不同数据集上的性能表现,对比分析各算法在不同数据集中的优劣。最后,对行人检测中待解决的问题与未来的研究方法做出预测和展望。如何缓解遮挡导致的特征缺失问题、如何应对单一视角下尺度变化问题、如何提高检测器效率以及如何有效利用多模态信息提高行人检测精度,均是值得进一步研究的方向。  相似文献   

7.
针对视频序列中因脸部遮挡、漏检而造成的无法正确判断行人是否佩戴口罩的问题,提出一种基于改进YOLOv7与DeepSORT的佩戴口罩行人跟踪算法。该算法将口罩检测、行人检测与跟踪相结合,通过在YOLOv7的主干网络中添加注意力机制,增加浅层特征图,加强网络对小目标的感知能力,提高口罩检测与行人检测精度;帧内关系模块利用匈牙利算法进行帧内目标关联,对行人进行口罩佩戴标记;将方向差因素加入到DeepSORT算法的关联代价中,消除跟踪轨迹的历史预测方向和新检测速度方向不一致问题;使用改进的DeepSORT算法对行人进行跟踪,并对每条轨迹进行口罩佩戴标记更新,实现对佩戴口罩与未佩戴口罩行人的跟踪。实验结果表明,改进的YOLOv7网络平均检测精度mAP50相比原始算法提升了3.83个百分点;在MOT16数据集上,该算法的跟踪准确性MOTA相较DeepSORT算法提高了17.1个百分点,跟踪精度MOTP提高了2.6个百分点。与检测算法相比,提出的算法能够跟踪到更多的行人是否佩戴了口罩,具有更好的效果。  相似文献   

8.
为解决YOLOv4在目标检测任务中检测速度低、模型参数多等问题,提出一种改进YOLOv4的目标检测算法。将YOLOv4主干网络中的CSPDarknet53替换成Mobilenet用以增强YOLOv4的特征提取网络,PANet原有的3×3标准卷积被深度可分离卷积取代,以降低计算负荷,从而提高识别速度,减少模型参数。然后使用K-means+〖KG-*3〗+算法对由8565张图像组成的数据集进行anchor维度聚类,以提升算法精度。同时,搭建行人口罩佩戴及人体测温拍摄系统用以在人群密集场所中执行疫情防控任务。在保证YOLOv4-Mobilenet网络精度的前提下,相较于原算法FPS提升200%、模型参数减少82%。改进后的模型平均每秒可检测67张图片,可以胜任实际应用中的口罩佩戴检测任务,结果表明该模型检测效果好、鲁棒性较强。  相似文献   

9.
针对城市交通场景复杂、车辆及行人等目标多且尺度变化大等特点,提出一种改进的YOLOv3全景交通监控多目标检测方法。以YOLOv3网络为基础,兼顾大小尺度目标特性设计4个检测尺度,并进行多尺度特征融合处理。利用[K]-means聚类方法对数据集中的标注目标框进行聚类分析,选取优化的聚类锚点框宽高维度作为改进YOLOv3网络的初始候选框。全景交通监控检测目标包括大型汽车、小型汽车、骑行摩托车、骑行自行车和行人5类。在测试集上目标检测平均精度和召回率分别达到84.49%和97.18%,较原始YOLOv3分别提高了7.76%和4.89%,处理速度可满足交通场景下实时性检测要求。  相似文献   

10.
为保持行人在新型冠状病毒肺炎(COVID-19)疫情下的安全社交距离,有效控制和预防疫情传播,构建一种基于YOLOv4的安全社交距离风险评估模型。利用微调后的YOLOv4算法对行人进行目标提取,获取行人关键点,并将行人连续运动视为质点的连续运动,结合DeepSort算法实现对行人的跟踪处理。在此基础上,建立视觉坐标系,在鸟瞰视角下提出运动矢量分析算法计算和判断行人运动方向并评估行人的安全社交距离。在牛津城市中心的数据集上评估模型有效性,实验结果表明,微调后YOLOv4算法在行人检测中平均精度均值达到90.33%,行人社交距离风险评估准确率达到88.23%,性能优于Fast R-CNN、Faster R-CNN、YOLOv3和YOLOv4算法,表明所提模型能够有效提升安全社交距离的检测准确性。  相似文献   

11.
由于人口流动、旅游、演唱会等行为的发生,导致行人出现密集性聚集现象,容易造成较大的安全事故。因此,利用深度学习方法分析检测密集场景下的行人,成为降低行人安全隐患的重要措施之一。然而,目前视频监控分析系统仍存在识别精度低、预警慢、智能化程度低等诸多问题。鉴于此,设计并实现一套基于YOLOv5的密集场景下的行人智能分析系统。系统测试表明,密集场景下的行人智能分析系统检测速度较快、精度较高,且系统性能良好,有一定的应用价值。  相似文献   

12.
针对智能驾驶中动态目标检测易受雾天等恶劣天气影响,以及原始YOLOv3目标检测算法应用于行人车辆检测时精度低、定位准确率低及漏检率高等问题,提出一种基于改进YOLOv3和数据增强的雾天行人车辆检测方法。首先,以Cityscapes数据集为基础,通过大气散射模型及清晰图片的深度信息人工生成3种浓度的FoggyCityscapes,用以扩充样本数量。其次,通过改进K-means聚类算法生成适用于检测车辆与行人的先验框,同时,使用软非极大值抑制(softnon-maximumsuppression,Soft-NMS)优化对重叠目标的检测,进一步提高模型检测精度。实验结果表明,相较于原模型,该方法在3种浓度的FoggyCityscapes数据集上的平均精度均值(meanaverageprecision,m AP)分别提高了7.73%、13.22%和21.51%,能够快速准确地检测雾天场景的行人和车辆目标。  相似文献   

13.
针对传统目标检测跟踪算法检测精度低、鲁棒性差的缺点,以及交叉路口图像视频资源冗余的现象和车辆密集程度高的特点,提出了一种基于改进YOLOv5和DeepSort算法模型的交叉路口实时车流量检测方法,在MS COCO和BDD100k相结合的数据集上,采用改进的YOLOv5算法模型实现视频小目标车辆检测,利用深度学习多目标跟踪算法DeepSort对检测的车辆进行实时跟踪计数,实现了交叉路口监控端对端的实时车流量检测。通过分析比较不同参数的模型,最终选定了YOLOv5m模型。实验结果表明,该方法在复杂环境、车辆遮挡和目标密集程度高等环境下检测速度更加快,对车辆的检测效果更好,平均准确度达到96.6%。该方法完全满足目标实时性检测的要求,能充分满足交叉路口车辆检测的有效性,满足实际需要的使用需求。  相似文献   

14.
针对YOLOv3算法在监控视频行人检测中对遮挡目标漏检率较高的问题,文中提出改进YOLOv3网络结构的遮挡行人检测算法.首先在网络全连接层引入空间金字塔池化网络,增强网络的多尺度特征融合能力.然后采用网络剪枝的方式,精简网络冗余结构,避免网络层数加深导致的退化和过拟合问题,同时减少参数量.在走廊行人数据集上进行多尺度训练,获得最优的权重模型.实验表明,文中方法在平均准确率和检测速度上都有所提升.  相似文献   

15.
随着交通智能化的发展, 高速公路监控视频加密上云逐渐成为交通发展的主要趋势之一. 交通数据深度挖掘, 尤其是行人检测问题, 则是该趋势中亟待解决问题之一. 本文针对多种道路环境的行人检测问题, 提出了一种基于鲲鹏云的全天候行人监测解决方案. 首先, 将监控相机中的视频流通过流媒体服务转发至鲲鹏云; 然后鲲鹏云进行视频流解码与行人检测, 同时保存行人历史信息; 最后进行行人事件分析和上报. 本系统采用嵌入式神经网络处理器(NPU)代替传统图形处理器(GPU)平台加速YOLOv4行人检测模块的推理, 一方面取得了较快的检测速度并可实时处理22路视频流, 另一方面, 该解决方案针对不同道路场景下高速道路上的行人也可取得较好的监测效果.  相似文献   

16.
为了研究传统目标检测算法在进行道路小目标检测时效果不佳及漏检率较高等问题,本文提出了一种基于改进YOLOv3的小目标检测方法.首先通过设计新的特征融合结构降低小目标漏检率,并且使用DIOU损失提高定位精确度.同时对YOLOv3算法中的聚类算法进行改进,采用K-means++算法改进聚类先验框中心点的提取,选取更为合适的Anchor Box,用于提高检测的平均精度和速度.在自制混合数据集上对行人及车辆进行对比检测,在不影响检测速度的情况下,改进的YOLOv3算法能够有效降低小目标物体漏检率,并且提高了检测精度.根据实验结果,本文所提出的改进YOLOv3模型在混合数据集上的平均精度达到92.82%,与未改进的YOLOv3算法相比提高了2.77%.  相似文献   

17.
针对YOLOv3(you only look once)检测算法对小目标、遮挡目标检测时存在识别率低和识别精度不高的问题,提出一种融合DBSCAN(density-based spatial clustering of applications with noise)的改进YOLOv3目标检测算法。首先在YOLOv3网络中增加DBSCAN聚类算法,其次对检测目标进行提取,实现数据集多尺度聚类,得到初代特征图,然后通过改进[K]-means聚类算法确定锚点位置达到更好的聚类,最后在VOC2007+2012数据集和MS-COCO数据集上对改进YOLOv3算法进行训练和测试。实验结果表明改进的YOLOv3算法使检测目标在VOC数据集和MS-COCO数据集上mAP(mean average precision)分别提高了14.9个百分点和12.5个百分点。与其他深度学习目标检测算法相比,改进YOLOv3检测算法具有更好的检测效果,同时具有良好移植性和更好的鲁棒性。  相似文献   

18.
在计算机视觉的内窥胃部息肉检测中, 高效提取小型息肉图像特征是设计深度学习的计算机视觉模型一个难点. 针对该问题, 提出了一种YOLOv4改进的YOLOv4-polyp检测模型. 首先在YOLOv4的基础上, 引入CBAM卷积注意力模块增强模型在复杂环境的特征提取能力; 其次设计出轻量级CSPDarknet-49网络模型, 在降低模型复杂度的同时提高检测精度和检测速度; 最后根据胃息肉数据集的特点, 采用K-means++聚类算法对胃息肉数据集进行聚类分析, 得到优化后的锚框. 实验对比结果表明, YOLOv4-polyp对于经典YOLOv4模型在保持检测速率不变的同时, 在两个数据集中平均检测精度分别提升了5.21%和2.05%, 表现出良好的检测性能.  相似文献   

19.
针对基于深度学习的轮对踏面缺陷检测算法中检测框尺寸精度不足的问题,文章提出一种结合YOLOv3-tiny与传统图像算法的踏面缺陷检测算法,以实现低CPU消耗的列车轮对踏面缺陷快速定位与几何参数的精确测量.其首先对工业场景下获取到的小样本进行图像增强,然后采用YOLOv3-tiny算法对踏面缺陷进行迁移学习,实现缺陷的粗...  相似文献   

20.
针对复杂场景下行人发生遮挡检测困难以及远距离行人检测精确度低的问题,本文提出一种多视角数据融合的特征平衡YOLOv3行人检测模型(MVBYOLO),包括2部分:自监督学习的多视角特征点融合模型(Self-MVFM)和特征平衡YOLOv3网络(BYOLO)。Self-MVFM对输入的2个及以上的视角数据进行自监督学习特征,通过特征点的匹配实现多视角信息融合,在融合时使用加权平滑算法解决产生的色差问题;BYOLO使用相同分辨率融合高层语义特征和低层细节特征,得到平衡的语义增强多层级特征,提高复杂场景下车辆前方行人检测的精确度。为了验证所提出方法的有效性,在VOC数据集上进行对比实验,最终AP值达到80.14%。与原YOLOv3网络相比,本文提出的MVBYOLO模型精度提高了2.89%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号