首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 78 毫秒
1.
对于工业及建筑行业来说,工作人员在施工过程中佩戴安全帽是避免伤害的有效途径之一。针对这一现象,提出了一种改进YOLOv5的安全帽检测算法。该算法以YOLOv5s网络为基础,在YOLOv5s的主干网络中添加CA坐标注意力机制模块。在颈部网络结构中将特征融合模块中原有特征金字塔模块替换为加权双向特征金字塔(BiFPN)网络结构,实现高效的双向跨尺度连接和加权特征融合。在自制安全帽数据集中验证可知,改进的YOLOv5模型平均精度达到了92.15%,相比于YOLOv5模型,平均精度提高了1.05个百分点,实现了对密集目标和遮挡目标准确、高效的安全帽检测。  相似文献   

2.
针对复杂施工环境下的安全帽佩戴检测模型存在误检和漏检问题,基于YOLOv5s实验,提出一种改进型目标检测算法SH-YOLO,用于检测施工现场中安全帽的佩戴情况。SH-YOLO方法基于YOLOv5s,在Backbone层嵌入SimAM注意力机制,在Backbone与Neck连接处使用SPPFCSPC方法来减少原模型的计算量和参数量。在自制的安全帽数据集上进行对比实验,结果表明,SHYOLO对安全帽的检测精度AP分别达到95.4%,较YOLOv5s分别提升6.7%,同时保持较低的参数量和较高的帧速。  相似文献   

3.
本文介绍了一种新的基于YOLOv5s的目标检测方法,旨在弥补当前主流检测方法在小目标安全帽佩戴检测方面的不足,提高检测精度和避免漏检.首先增加了一个小目标检测层,增加对小目标安全帽的检测精度;其次引入ShuffleAttention注意力机制,本文将ShuffleAttention的分组数由原来的64组减少为16组,更加有利于模型对深浅、大小特征的全局提取;最后增加SA-BiFPN网络结构,进行双向的多尺度特征融合,提取更加有效的特征信息.实验表明,和原YOLOv5s算法相比,改善后的算法平均精确率提升了1.7%,达到了92.5%,其中佩戴安全帽和未佩戴安全帽的平均精度分别提升了1.9%和1.4%.本文与其他目标检测算法进行对比测试,实验结果表明SAB-YOLOv5s算法模型仅比原始YOLOv5s算法模型增大了1.5M,小于其他算法模型,提高了目标检测的平均精度,减少了小目标检测中漏检、误检的情况,实现了准确且轻量级的安全帽佩戴检测.  相似文献   

4.
针对目前施工现场的安全帽检测方法存在遮挡目标检测难度大、误检漏检率高的问题,提出一种改进YOLOv5的安全帽检测方法;首先,使用K-means++聚类算法重新设计匹配安全帽数据集的先验锚框尺寸;其次,使用Swin Transformer作为YOLOv5的骨干网络来提取特征,基于可移位窗口的Multi-head自注意力机制能建模不同空间位置特征之间的依赖关系,有效地捕获全局上下文信息,具有更好的特征提取能力;再次,提出C3-Ghost模块,基于Ghost Bottleneck对YOLOv5的C3模块进行改进,旨在通过低成本的操作生成更多有价值的冗余特征图,有效减少模型参数和计算复杂度;最后,基于双向特征金字塔网络跨尺度特征融合的结构优势提出新型跨尺度特征融合模块,更好地适应不同尺度的目标检测任务;实验结果表明,与原始YOLOv5相比,改进的YOLOv5在安全帽检测任务上的mAP@.5:.95指标提升了2.3%,检测速度达到每秒35.2帧,满足复杂施工场景下安全帽佩戴检测的准确率和实时性要求。  相似文献   

5.
张锦  屈佩琪  孙程  罗蒙 《计算机应用》2022,42(4):1292-1300
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。  相似文献   

6.
由于安全帽目标较小、环境复杂等因素的影响,易造成卷积神经网络的漏检与误检。为提高复杂环境中对安全帽的检测能力,提出一种基于YOLOv4的安全帽检测网络SR_YOLO。采用多尺度池化操作改进空间金字塔池化层,由分层卷积与scSE注意力模块组成特征增强模块,改进网络结构,分别提高对网络感受野信息的获取能力和对Neck网络的特征提取能力。利用Kmeans++算法对安全帽数据进行anchor尺寸优化,提高算法的检测准确率。实验结果表明,SR_YOLO的mAP为84.05%,较YOLOv4提高1.45%,每秒检测帧率为30 fps,能够实现安全帽佩戴情况的快速准确检测。  相似文献   

7.
佩戴安全帽是防止施工现场工作人员头部损伤的有效方法之一,然而现有安全帽检测算法多存在重叠目标检测难度大、小目标漏检率高等缺点。为此,提出了一种通过融合自注意力机制来改进Faster R-CNN的目标检测算法,用于安全帽检测。通过自注意力层来捕获多个尺度上的全局信息,得到更丰富的高层语义特征并将更大的感受野范围引入模型,在区域建议网络(RPN)的训练中通过锚框补选增强的方法让小目标信息得到更多的训练,强化了网络对于小尺度目标的表达能力。实验结果表明:改进后的算法在安全帽佩戴检测上的mAP值较传统Faster R-CNN提高了6.4个百分点,对于不同场景不同尺度的安全帽有着较好的检测效果。  相似文献   

8.
佩戴安全帽是施工过程中人员安全的重要保障之一,但现有的人工检测不仅耗时耗力而且无法做到实时监测,针对这一现象,提出了一种基于深度学习的安全帽佩戴检测算法。该算法以YOLOv5s网络为基础。在网络的主干网中引入CoordAtt坐标注意力机制模块,考虑全局信息,使得网络分配给安全帽更多的注意力,以此提升对小目标的检测能力;针对原主干网对特征融合不充分的问题,将主干网中的残差块替换成Res2NetBlock结构中的残差块,以此提升YOLOv5s在细粒度上的融合能力。实验结果表明:在自制的安全帽数据集中验证可知,与原有的YOLOv5算法相比,平均精度提升了2.3个百分点,速度提升了18 FPS,与YOLOv3算法相比,平均精度提升了13.8个百分点,速度提升了95 FPS,实现了更准确的轻量高效实时的安全帽佩戴检测。  相似文献   

9.
为提高YOLOv5s目标检测算法在检测图像中小目标时的准确度,本文研究引入注意力机制来提高神经网络对于图像特征提取的能力。将三种注意力机制CBAM、CoordAtt和GAM分别与YOLOv5s相融合,并在小目标数据集上进行训练。实验的结果显示,在YOLOv5s算法中添加注意力机制时,需考虑注意力机制在网络中的添加位置、该机制与数据集任务之间是否匹配以及预训练权重的影响。  相似文献   

10.
为减少一线工人由于未佩戴安全帽而造成的意外安全事故,提出一种改进YOLOv4网络和视频监控相结合检测佩戴安全帽的方法。采用聚类算法获取适用于安全帽数据集的先验框,通过对YOLO v4网络增加注意力机制模块聚焦安全帽特征,选用新的边界框回归损失函数CIoU提高检测精度,使用MAL(Multiple Anchor Learning)学习策略减少漏检概率。实验结果表明,改进后的方法在测试集上的mAP达到了96.32%,识别速率为每秒42帧,与YOLOv3算法相比提升了8.73百分点。该方法在安全帽佩戴检测中既满足视频监控的检测实时性的要求,还能较准确地检测一线工人是否佩戴安全帽。  相似文献   

11.
针对白细胞数据样本少、类间差别小及目标尺寸小导致的检测精度低、效果不佳等问题,提出一种基于改进YOLOv5的白细胞检测算法YOLOv5-CHE.在主干特征提取网络的卷积层中添加坐标注意力机制,以提升算法的特征提取能力;使用四尺度特征检测,重新获取锚点框,增加浅层检测尺度,来提高小目标的识别精度;改变边框回归损失函数,以...  相似文献   

12.
在施工现场中, 安全帽能够减轻对头部的伤害, 且不同颜色的安全帽代表不同的身份, 基于当前施工现场通过视频监控来对工人安全帽的佩戴以及工种身份识别存在一定的耗时性, 不完全性, 监督效率低等问题, 本文提出了一种基于YOLOv4改进的安全帽佩戴检测以及身份识别的方法, 在原始的YOLOv4的基础之上, 使用K-means算法对先验框的大小重新进行聚类分析处理, 增加多尺度预测输出, 实现DIoU NMS进行非极大值抑制, 从而使工人安全帽佩戴及身份识别达到高效性, 全面性. 结果表明, 佩戴红、蓝、黄、白安全帽和未佩戴安全帽工人平均检测准确率达到92.1%, 从而保证能够实现对施工现场工人安全帽的佩戴达到一种实时监控.  相似文献   

13.
YOLOv5是目前单阶段目标检测性能较好的算法,但对目标边界回归的精确度不高,难以适用对预测框交并比要求较高的场景。基于YOLOv5算法,提出一种对硬件要求低、模型收敛速度快、目标框准确率高的新模型YOLO-G。改进特征金字塔结构(FPN),采用跨层级联的方式融合更多的特征,一定程度上防止了浅层语义信息的丢失,同时加深金字塔深度,对应增加检测层,使各种锚框的铺设间隔更加合理;其次把并行模式的注意力机制融入到网络结构中,赋予空间注意力模块和通道注意力模块相同的优先级,以加权融合的方式提取注意力信息,使网络可根据对空间和通道注意力的关注程度得到混合域注意力;通过降低网络的参数量和计算量对网络进行轻量化处理,防止因模型复杂度提升造成实时性能的损失。使用PASCAL VOC的2007、2012两个数据集来验证算法的有效性,YOLO-G比YOLOv5s的参数量减少了4.7%,计算量减少了47.9%,而mAP@0.5提高了3.1个百分点,mAP@0.5:0.95提高了5.6个百分点。  相似文献   

14.
机坪特种车辆作为航班保障服务的重要一环,其种类多,形状各异;目前已有的车辆检测算法在识别机坪特种车辆时检测精度不高,在遮挡时无法检测;针对于此问题,提出了一种基于改进YOLOv5s的机坪特种车辆检测算法;为了在机坪特种车辆检测中快速、准确的定位感兴趣区域,在主干网络中融合协同注意力机制;考虑到机坪监控场景下特种车辆尺度差别较大的情况,为了能够增强对不同尺度特种车辆的检测能力,提出了四尺度特征检测网络结构;为了提高检测网络多尺度特征融合能力,结合加权双向特征金字塔结构对网络的Neck部分进行改进;将改进后的算法在自建的机坪特种车辆数据集上进行训练、测试,实验结果表明,与YOLOv5s相比,改进后算法的精确度提升了1.6%,召回率提升了3.5%,平均精度mAP0.5和mAP0.5:0.95分别有2.3%和3.3%的提升。  相似文献   

15.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH.在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测...  相似文献   

16.
针对目前复杂环境下因光照不均匀、背景近肤色以及手势尺度较小等原因导致的手势检测算法识别率低的问题,提出了一种手势识别方法 HD-YOLOv5s。首先采用基于Retinex理论的自适应Gamma图像增强预处理方法降低光照变化对手势识别效果的影响;其次构建具有自适应卷积注意力机制SKNet的特征提取网络,提高网络的特征提取能力,减少复杂环境中的背景干扰问题;最后在特征融合网络中构建新型的双向特征金字塔结构,充分利用低层级特征以降低浅层语义信息的丢失,提高小尺度手势的检测精度,同时采用跨层级联的方式,进一步提高模型的检测效率。为了验证改进方法的有效性,分别在具有丰富光照强度对比的自制数据集和具有复杂背景的公共数据集NUS-Ⅱ上进行实验,识别率达到了99.5%和98.9%,单帧照片的检测时间仅需0.01~0.02 s。  相似文献   

17.
针对交通目标检测模型参数量大、检测精度低、检测速度慢、泛化性差等问题,提出一种基于GhostNet与注意力机制的YOLOv5交通目标实时检测模型.采用基于遗传算法的K-means聚类方法获取适用于车辆检测的最佳预选框;采用轻量的Ghost卷积提取目标特征,并构建基于CSP结构的C3Ghost模块,大幅度压缩模型参数量,降低计算成本,提高计算速度;在特征融合层添加Transformer block和CBAM注意力模块,来探索模型特征提取潜力以及为模型在密集对象的场景中寻找注意力区域; UA-DETRAC数据集上的消融实验和综合性能评价结果表明所提模型平均精度达到98.68%,参数量为47 M,检测速度为65 FPS,与YOLOv5相比,参数量压缩了34%,速度提升43%,平均精度提高了1.05%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号