首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 218 毫秒
1.
张锦  屈佩琪  孙程  罗蒙 《计算机应用》2022,42(4):1292-1300
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。  相似文献   

2.
徐先峰  赵万福  邹浩泉  张丽  潘卓毅 《计算机工程》2021,47(10):298-305,313
针对真实场景下安全帽佩戴检测面临的背景复杂、干扰性强、待检测目标较小等问题,在SSD算法的基础上,提出改进的MobileNet-SSD算法。通过引入轻量型网络MobileNet并构建MobileNet-SSD算法提高检测速度,采用迁移学习策略克服模型训练困难问题。从施工相关视频中获取真实环境下的安全帽样本构建样本集,以解决当前安全帽数据集规模较小、网络难以充分拟合特征的问题。实验结果表明,MobileNet-SSD算法在损失很小精度的情况下,相较于SSD算法,检测速度提高了10.2倍。  相似文献   

3.
刘泽西  张楠  连婷  马骏  赵勇  倪威 《测控技术》2022,41(8):16-21
变电站内电气设备数量众多,在工人进行现场作业时需要对工人佩戴安全帽进行监测。由于机器学习的安全帽佩戴检测方法常常出现漏检和误检的情况,为提高对安全帽佩戴识别的准确率,同时加快识别速度,提出了一种基于YOLOv5s的轻量化卷积神经网络模型。通过引入RepVGG模块对网络主干进行轻量化,在网络后处理阶段通过Soft-NMS降低遮挡目标漏检率,以Mixup数据增强来扩充数据集,建立样本之间的线性关系,提升训练模型泛化性能,最后进行消融实验。实验结果表明,改进的模型的均值平均精度(mAP)达到80.4%,推理速度达到了83.3 f/s,为变电站安全帽佩戴检测提供了有效参考。  相似文献   

4.
陈昭俊  储珺  曾伦杰 《图学学报》2022,43(4):590-598
公共场合佩戴口罩已经成为重要的防疫措施。现有口罩检测方法通常只检测是否佩戴口罩,忽略检测未规范佩戴口罩这一极易发生交叉感染的场景,目前的口罩数据集缺少未规范佩戴口罩数据。针对以上问题,在现有口罩数据集的基础上,通过线下采集和从互联网收集更多未规范佩戴口罩图像,并根据佩戴口罩的人脸图像特点,改进 Mosaic 数据增强算法扩充数据,改进后 Mosaic 数据增强算法能够将基准网络 YOLOv4的平均精度均值(mAP)提升 2.08%;针对扩增后数据集出现的类别不平衡问题,提出动态加权平衡损失函数,在重加权二分类交叉熵损失(weight binary cross entropy loss)基础上,以有效样本数量的倒数作为辅助类别权重,并对训练的每一个批次进行动态调整,解决直接使用重加权方法稳定性弱、检测精度震荡和效果不理想的问题。实验表明,改进后模型 mAP 达到 91.25%,未规范佩戴口罩平均精度(AP)达到 91.69%,与单阶段方法 RetinaNet,Centernet,Effcientdet 和两阶段方法 YOLOv3-MobileNetV2,YOLOv4-MobileNetV2 相比,改进后算法具有更高的检测精度和速度。  相似文献   

5.
小样本目标检测旨在通过少量的样本学习来训练目标检测模型,现有的小样本目标检测方法大多基于经典的目标检测算法。在二阶段的检测方法中,由于新类别样本数量少,产生了许多无关的边界框,导致候选区域的准确率较低。为了解决这个问题,提出了一种基于特征融合的小样本目标检测算法FF-FSOD。该方法采用特征融合的方法进行数据增强,对新类别样本进行补充,扩大样本的覆盖范围,同时引入FPN网络进行多尺度特征提取,再对RPN网络进行改进,引入支持集图像分支,计算支持集图像特征与查询集图像特征的深度互相关性,得到注意力特征图,进而获得更精确的候选框。所提模型的有效性在MS COCO和FSOD数据集上得到了验证,实验结果表明,该方法获得了更精准的候选框,进而提升了检测精度。  相似文献   

6.
针对高分辨率输入下全景视觉图像目标检测速度难以达到实时的问题,提出一种以YOLOv3为基础的轻量化网络模型,该模型在牺牲部分检测精度的条件下实现了较好的检测速度提升。为解决全景图像训练数据集样本数量不足的问题,提出一种适用于全景图像的数据增强方法来扩充训练数据集。实验结果表明,利用YOLOv3验证扩充后的数据集以交并比(Io U)为0.5的条件下评估平均精度,与原始数据集相比检测精确度提高4.75%,改进的轻量化模型与YOLOv3相比,网络参数量减少65.08%,检测速度提升31.81%并达成实时检测。  相似文献   

7.
在工程现场因不佩戴安全帽导致的悲剧时有发生,为了协助工程现场管理人员保障工人的人身安全,本文设计实现了一种基于深度学习的安全帽智能监管系统.该系统采用集速度和精度为一体的YOLOv4目标检测模型,在数据集上使用K-means算法聚类分析生成新的先验框,并使用新的先验框进行训练,将安全帽的检测精度提高至92%;将检测模型YOLOv4与跟踪模型DeepSORT相结合,有效解决重复警告和无法对违规数据进行统计的问题;最终制作成跨平台移动APP,方便管理人员使用移动端随时随地监管安全帽佩戴情况.本系统是一套集安全帽检测、检测视频实时直播、智能警告、违规图片抓取并展示,违规数据可视化等功能为一体的安全帽智能监管系统,它的使用能够大大提高工程现场的生产安全系数和监管效率.  相似文献   

8.
为应对泵站场景下设备和人员之间目标被遮挡及远距离小目标对泵站重点区域安全帽佩戴自动监管带来的挑战,提出了一种融合注意力机制和跨尺度特征融合的安全帽佩戴检测算法,以克服在远距离、有遮挡场景下安全帽检测准确度低的问题。通过采集泵站监控视频数据构建泵站场景安全帽数据集,在特征提取网络中加入注意力机制模块,使得模型更关注于小目标的通道信息;同时增加检测层使得特征融合时能结合多级特征,并使用柔和非极大值抑制(Soft Non-Manimum Suppression, Soft-NMS)和完全交并比(Complete Intersection over Union, CIoU)算法进行改进以减少遮挡目标漏检情况。在自建数据集进行试验,结果表明改进后的算法平均准确率达到93.5%,与其他目标检测算法相比精度均有所提升,证明该方法在泵站重点区域场景安全帽检测任务中具有良好的性能。  相似文献   

9.
煤矿工人在井下开展生产作业时,头戴安全帽是有效保障其人身安全的重要防护措施,近年来由于未佩戴安全帽造成的事故层出不穷。针对这个问题,设计了安全帽佩戴检测算法。首先使用煤矿井下摄像头拍摄图像、公开数据集和网络爬虫的方式构建数据集,其次使用YOLOv5对构建的数据集进行训练,训练出安全帽检测模型,最后把训练的模型部署到监控终端进行测试。测试结果表明,设计的算法能够正确识别作业人员是否佩戴安全帽。  相似文献   

10.
安全帽作为作业工人最基本的个体防护装备,对作业人员的生命安全具有重要意义.但是部分作业人员安全意识缺乏,不佩戴安全帽行为时常发生.本文聚焦于复杂场景下对工作人员是否佩戴安全帽的实时检测.YOLO (You Only Look Once)是当前最为先进的实时目标检测算法,在检测精度和速度上都取得了良好的效果,将YOLO应用于安全帽检测.针对未佩戴安全帽单类检测问题,修改分类器,将输出修改为18维度的张量.基于YOLOv3在ImageNet上的预训练模型,对实际场景下采集到的2010张样本进行标注并训练,根据损失函数和IOU曲线对模型进行优化调参,最终得到最优的安全帽检测模型.实验结果表明,在2000张图片测试集上取得了98.7%的准确率,在无GPU环境下平均检测速度达到了35 fps,满足实时性的检测要求,验证了基于YOLOv3安全帽检测方法的有效性.  相似文献   

11.
为了解决传统施工现场安全管理的弊端,减少因施工人员未佩戴安全帽造成的人员伤亡,本文提出一种基于深度学习的安全帽佩戴检测与跟踪方法。首先通过深度学习YOLOv3目标检测网络实现安全帽佩戴检测,进一步运用卡尔曼滤波器和KM算法实现多目标跟踪与计数。复杂施工现场的测试结果表明:网络模型的检测速度可达45 fps,平均精确度为93%,且未佩戴安全帽的查准率和查全率分别为97%和95%,基本能够实现安全帽佩戴情况的实时检测。  相似文献   

12.
针对已有安全帽佩戴检测算法对部分遮挡、尺寸不一和小目标存在检测难度大、准确率低的问题,提出了基于改进的Faster RCNN和多部件结合的安全帽佩戴检测方法。在原始Faster RCNN上运用多尺度训练和增加锚点数量增强网络检测不同尺寸目标的鲁棒性,并引入防止正负样本不均衡的在线困难样本挖掘策略,然后对检测出的佩戴安全帽工人和安全帽等采用多部件结合方法剔除误检目标。实验表明,相比于原始Faster RCNN,检测准确率提高了7%,对环境的适应性更强。  相似文献   

13.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

14.
为了解决在实际道路场景中对摩托车驾乘者头盔佩戴情况的检测与跟踪问题,提出一种优化的DeepSORT多目标跟踪摩托车头盔检测算法。使用改进的YOLOv3算法作为目标检测器,该方法采用MobileNetv3-Large作为YOLOv3特征提取网络,以轻量化网络结构,借鉴CEM模块的思想,引入SoftPool池化层和SE模块,构建了深浅语义融合增强模块,加强网络对输入特征深浅语义的编码能力。为了实现摩托车头盔佩戴分类和DeepSORT算法中外观特征识别模型的优化,构建多任务学习框架,通过对比损失函数和改进的交叉损失函数对多任务网络进行迭代训练来提升相似度学习能力和实现最终头盔佩戴情况分类。实验结果表明:在目标检测方面,改进网络的摩托车检测精度相较原始算法提升了4.56个百分点,模型大小仅为YOLOv3的13.7%。结合DeepSORT算法,多目标跟踪准确率相较于YOLOv3-DeepSORT算法从51.6%提升到了67.5%,多目标跟踪精度从57.3%提升到75.6%,检测追踪速度由6 FPS提升到了20 FPS,最终的NPH模型检测分类精度为72.42%。实现了对实际道路中摩托车驾乘人员头...  相似文献   

15.
针对已有的安全帽佩戴检测算法对小尺寸目标和部分遮挡目标检测效果较差的问题,在区域卷积神经网络基础上,做出优化用于安全帽佩戴检测。在原始Faster RCNN的基础上使用多层卷积特征融合技术优化区域建议网络产生候选区域特征图,使用在线困难样本挖掘技术训练ROI网络,自动挑选出困难样本使训练更加有效。实验结果表明,相比原始的Faster RCNN算法,所提方法检测精度提高了4.73%,对部分遮挡和小尺寸目标均有较好的检测效果,对环境变化具有更强的适应性。  相似文献   

16.
在生产和作业场地中,工人由于不佩戴安全帽而引发的安全事故时有发生。为了降低由于未佩戴安全帽而引发的安全事故发生率,提出了一种基于改进YOLO v3算法的安全帽佩戴检测方法。通过采用图像金字塔结构获取不同尺度的特征图,用于位置和类别预测;使用施工现场出入口监控视频作为数据集进行目标框维度聚类,确定目标框参数;在训练迭代过程中改变输入图像的尺寸,增加模型对尺度的适应性。理论分析和实验结果表明,在安全帽佩戴检测任务中,mAP(Mean Average Precision)达到了92.13%,检测速率提高到62?f/s,其检测准确率与检测速率相较于YOLO v3均略有提高,所提算法不仅满足安全帽佩戴检测中检测任务的实时性,同时具有较高的检测准确率。  相似文献   

17.
复杂背景下全景视频运动小目标检测算法   总被引:2,自引:0,他引:2  
为解决复杂背景下全景视频中运动小目标检测精度低的问题,提出一种基于复杂背景下全景视频运动小目标检测算法.首先,为降低复杂背景信息的干扰,提高目标检测的精度,采用快速鲁棒性主成分分析(Fast RPCA)算法将全景视频图像的前景背景信息分离,并提取出前景信息作为有效的图像特征;然后,改进更快的基于区域的卷积神经网络(Faster R-CNN)中的区域生成网络(RPN)的候选框尺度大小,使之适应全景图像中的目标尺寸,再对前景特征图进行训练;最后,通过RPN网络和Fast R-CNN网络共享卷积层输出检测模型,实现对全景视频图像中小目标的精准检测.实验结果表明,所提出算法可以有效抑制复杂的背景信息对目标检测精度的影响,并对全景视频图像中的运动小目标具有较高的检测精度.  相似文献   

18.
佩戴安全帽是施工过程中人员安全的重要保障之一,但现有的人工检测不仅耗时耗力而且无法做到实时监测,针对这一现象,提出了一种基于深度学习的安全帽佩戴检测算法。该算法以YOLOv5s网络为基础。在网络的主干网中引入CoordAtt坐标注意力机制模块,考虑全局信息,使得网络分配给安全帽更多的注意力,以此提升对小目标的检测能力;针对原主干网对特征融合不充分的问题,将主干网中的残差块替换成Res2NetBlock结构中的残差块,以此提升YOLOv5s在细粒度上的融合能力。实验结果表明:在自制的安全帽数据集中验证可知,与原有的YOLOv5算法相比,平均精度提升了2.3个百分点,速度提升了18 FPS,与YOLOv3算法相比,平均精度提升了13.8个百分点,速度提升了95 FPS,实现了更准确的轻量高效实时的安全帽佩戴检测。  相似文献   

19.
针对视频序列中因脸部遮挡、漏检而造成的无法正确判断行人是否佩戴口罩的问题,提出一种基于改进YOLOv7与DeepSORT的佩戴口罩行人跟踪算法。该算法将口罩检测、行人检测与跟踪相结合,通过在YOLOv7的主干网络中添加注意力机制,增加浅层特征图,加强网络对小目标的感知能力,提高口罩检测与行人检测精度;帧内关系模块利用匈牙利算法进行帧内目标关联,对行人进行口罩佩戴标记;将方向差因素加入到DeepSORT算法的关联代价中,消除跟踪轨迹的历史预测方向和新检测速度方向不一致问题;使用改进的DeepSORT算法对行人进行跟踪,并对每条轨迹进行口罩佩戴标记更新,实现对佩戴口罩与未佩戴口罩行人的跟踪。实验结果表明,改进的YOLOv7网络平均检测精度mAP50相比原始算法提升了3.83个百分点;在MOT16数据集上,该算法的跟踪准确性MOTA相较DeepSORT算法提高了17.1个百分点,跟踪精度MOTP提高了2.6个百分点。与检测算法相比,提出的算法能够跟踪到更多的行人是否佩戴了口罩,具有更好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号