首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
李维娜  李爽 《软件》2023,(3):179-183
现有的YOLOv5模型无法精确检测出进入复杂施工现场内的人员佩戴安全帽问题,本文提出了一种基于YOLOv5的安全帽检测算法。模型的具体改进方法为:在主干网络中新增了一个小目标层P2和3-D注意力机制SimAM,提升算法的特征提取能力便于能够更容易检测出小目标;将边框损失函数CIoU_Loss改为SIo U_Loss,以提升对小目标检测的训练速度与精度,从而得到一种新的安全帽佩戴检测模型。实验结果显示,修改后的YOLOv5s算法大大提高了复杂工程现场安全帽检测的准确率,较原有的算法提高了1.4个百分点,mAP值达到了95.5%。  相似文献   

2.
佩戴安全帽对确保高危作业人员的生命安全至关重要。然而,由于施工现场活动范围广泛,从摄像头收集的安全帽图像具有相对较小、检测难度大的特点,容易出现漏检或错检的问题。因此,提出了一种基于改进YOLOv7的安全帽检测算法。使用Kmeans++算法聚类得到更优的先验边界框,在原YOLOv7中添加一个小目标检测层,同时加入卷积注意力机制模块(Convolutional Block Attention Module,CBAM),使网络更加关注输入图像的有效信息。为优化损失函数,使用Focal-EIoU替换了原YOLOv7网络模型中的完整的交并比(Complete Intersectionover Union,CIoU),从而减少损失函数自由度,提高模型性能。实验采用了百度飞桨公开的安全帽数据集进行训练。结果表明,改进算法的准确率达到92.2%,召回率达到91.6%,全类别平均正确率(mean Average Precision,mAP)提升1.4个百分点。提出的改进算法有效降低了漏检率及错检率,在安全帽佩戴检测中表现出良好的性能。  相似文献   

3.
佩戴安全帽是防止施工现场工作人员头部损伤的有效方法之一,然而现有安全帽检测算法多存在重叠目标检测难度大、小目标漏检率高等缺点。为此,提出了一种通过融合自注意力机制来改进Faster R-CNN的目标检测算法,用于安全帽检测。通过自注意力层来捕获多个尺度上的全局信息,得到更丰富的高层语义特征并将更大的感受野范围引入模型,在区域建议网络(RPN)的训练中通过锚框补选增强的方法让小目标信息得到更多的训练,强化了网络对于小尺度目标的表达能力。实验结果表明:改进后的算法在安全帽佩戴检测上的mAP值较传统Faster R-CNN提高了6.4个百分点,对于不同场景不同尺度的安全帽有着较好的检测效果。  相似文献   

4.
针对小目标检测及目标被遮挡的问题, 本文基于VisDrone2019数据集构建相应交通场景, 提出一种小目标检测算法. 首先, 充分利用主干网络的浅层特征改善小目标漏检的问题, 通过在YOLOv7算法原有的网络结构上增加小目标检测层P2, 并在P2小目标检测层的模型上为特征融合网络添加多层次浅层信息融合模块, 从而提高算法小目标检测效果. 其次, 使用全局上下文模块构建目标与全局上下文的联系, 增强模型区分目标与背景的能力, 改善目标因遮挡而出现特征缺失情况下的被检测效果. 最后, 本文采用专为小目标设计的损失函数NWD代替基线模型中的CIoU损失函数, 从而解决了IoU本身及其扩展对微小物体的位置偏差非常敏感的问题. 实验表明, 改进后的YOLOv7模型在航拍小目标数据集VisDrone2019 (测试集和验证集)上面mAP.5:.95分别有2.3%和2.8%的提升, 取得了十分优异的检测效果.  相似文献   

5.
针对复杂施工环境下的安全帽佩戴检测模型存在误检和漏检问题,基于YOLOv5s实验,提出一种改进型目标检测算法SH-YOLO,用于检测施工现场中安全帽的佩戴情况。SH-YOLO方法基于YOLOv5s,在Backbone层嵌入SimAM注意力机制,在Backbone与Neck连接处使用SPPFCSPC方法来减少原模型的计算量和参数量。在自制的安全帽数据集上进行对比实验,结果表明,SHYOLO对安全帽的检测精度AP分别达到95.4%,较YOLOv5s分别提升6.7%,同时保持较低的参数量和较高的帧速。  相似文献   

6.
为减少一线工人由于未佩戴安全帽而造成的意外安全事故,提出一种改进YOLOv4网络和视频监控相结合检测佩戴安全帽的方法。采用聚类算法获取适用于安全帽数据集的先验框,通过对YOLO v4网络增加注意力机制模块聚焦安全帽特征,选用新的边界框回归损失函数CIoU提高检测精度,使用MAL(Multiple Anchor Learning)学习策略减少漏检概率。实验结果表明,改进后的方法在测试集上的mAP达到了96.32%,识别速率为每秒42帧,与YOLOv3算法相比提升了8.73百分点。该方法在安全帽佩戴检测中既满足视频监控的检测实时性的要求,还能较准确地检测一线工人是否佩戴安全帽。  相似文献   

7.
徐先峰  赵万福  邹浩泉  张丽  潘卓毅 《计算机工程》2021,47(10):298-305,313
针对真实场景下安全帽佩戴检测面临的背景复杂、干扰性强、待检测目标较小等问题,在SSD算法的基础上,提出改进的MobileNet-SSD算法。通过引入轻量型网络MobileNet并构建MobileNet-SSD算法提高检测速度,采用迁移学习策略克服模型训练困难问题。从施工相关视频中获取真实环境下的安全帽样本构建样本集,以解决当前安全帽数据集规模较小、网络难以充分拟合特征的问题。实验结果表明,MobileNet-SSD算法在损失很小精度的情况下,相较于SSD算法,检测速度提高了10.2倍。  相似文献   

8.
张锦  屈佩琪  孙程  罗蒙 《计算机应用》2022,42(4):1292-1300
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。  相似文献   

9.
由于足球比赛场景中密集人群、移动小目标居多, YOLOv3算法存在检测精确度较低且模型参数量较大等问题, 使其无法部署在资源算力有限的移动设备上, 本文提出了一种基于改进YOLOv3的行人检测方法, 将Darknet-53主干特征提取网络替换为更加高效且轻量化的GhostNet网络; 同时选取了4个尺度的检测分支层并采用K-means++算法改善anchor box的聚类效果; 添加空间金字塔池化对输入图像实现相同大小的输出; 提出CIoU损失函数来计算目标定位损失值; 添加heatmap热力图可视化并在训练中使用Mosaic数据增强. 实验结果表明, YOLOv3-GhostNet在VOC融合数据集上mAP达到90.97%的同时相比YOLOv3算法提高了1.75%, 参数量减少了约81.4%且实时检测速率提高了约1.5倍, 在小型移动设备上表现出不错的检测效果.  相似文献   

10.
针对遥感图像在复杂背景下小目标检测精度较低的问题,提出一种基于双注意力机制模型的SSD检测算法。该算法在前端特征提取网络中引入双注意力机制模型,强化低层特征图中小目标的有效特征信息并抑制冗余的语义信息,实现自适应特征学习;并在空间注意力模型中引入空洞卷积,保证卷积核感受野的同时减少了网络参数。引入Focal loss损失函数作为改进算法的分类损失函数,改善网络在训练过程中样本失衡的问题,增加正样本与难样本在训练时的权重比例,提升算法的检测性能。对遥感图像数据集NWPU VHR-10进行检测的结果表明,本文的改进算法在保证检测速度的同时提高了检测精度。与传统SSD算法相比,改进SSD算法的mAP提高了2.25个百分点,达到79.65%。  相似文献   

11.
由于交通场景中的行人目标所处的背景环境复杂、目标较小等因素,使得目前的行人检测算法在实际应用中存在检测精度不高、检测速度较慢的问题.因此行人检测模块作为高级辅助驾驶系统的核心模块,一直以来都是目标检测的研究热点之一.针对交通场景中小尺度行人目标,将传统的SSD网络结构中的主干网络卷积层结合Inception模块中的稀疏...  相似文献   

12.
仪表检测是智能仪表测试不可或缺的环节,其效果直接决定仪表测试的准确率。针对仪表检测背景复杂且要求速度快的特点,提出一种基于改进YOLOv3的目标检测算法。基于YOLOv3算法,首先使用DenseNet(Densely Connected Convolutional Networks)替换Darknet中的最后2个网络块,以加强模型对特征的重用。然后采用轻量化的Darknet-46作为特征提取网络,并将DenseNet中的卷积神经网络修改为深度可分离卷积网络,再将所有检测层(YOLO Detection)之前的6层卷积修改为2层,以减少模型的参数。同时引入GDIOU(generalized-IOU and distance-IOU, GDIOU)边界框以回归坐标损失,并根据检测需求重新调整损失函数的权重。实验结果表明,相比原算法,改进的YOLOv3算法参数数量减少40%,在仪表检测中的精确率和召回率分别达到95.83%和94.98%,分别提高2.21个百分点和2.09个百分点,平均精度提高2.42个百分点,检测速度提高30.18%。  相似文献   

13.
交通标志检测是智能驾驶任务中的重要一环.为了满足检测精度和实时检测的要求,基于YOLOV3提出一种改进的实时交通标志检测算法.采用跨阶段局部网络作为特征提取模块,优化梯度信息,减少推理计算量;同时以路径聚合网络替代特征金字塔网络,在解决多尺度特征融合的同时,保留了更加准确的目标空间信息,提高目标检测精度;并且引入完备交...  相似文献   

14.
针对传统列车轨道障碍物检测方法实时性差和对小目标检测精度低的不足,提出一种改进YOLOv5s检测网络的轻量化障碍物检测模型。引入更加轻量化的Mixup数据增强方式,替代算法中原有的Mosaic数据增强方式;引入GhostNet网络结构中的深度可分离卷积GhostConv,替代原有YOLOv5s模型中特征提取网络与特征融合网络中的普通卷积层,减小了模型的计算开销;在模型特征提取网络末端加入CA空间注意力机制,让算法在训练过程中减少了重要位置信息的丢失,弥补了改进GhostNet对检测精度的损失;将改进后的模型进行稀疏训练和通道剪枝操作,剪掉对检测精度影响不大的通道,同时保留重要的特征信息,使模型更加轻量化。实验结果表明,改进后的模型在自制的多样化轨道交通数据集上,相较于原始YOLOv5s算法,在模型大小减小9.7 MB,检测速度提高14 FPS的前提下,检测精度提升了1.0个百分点。同时与目前主流的检测算法对比,在检测精度与检测速度上也具有一定的优越性,适用于复杂轨道交通环境下的障碍物目标检测。  相似文献   

15.
Tiny-YOLOV3是目标检测领域常用的检测算法,相比较YOLOV3,其优点是神经网络层比较简单,计算量少,且对硬件的配置要求较低,因此可以保证检测的实时性,但由于网络层比较少,检测的精度也较低。为了提高Tiny-YOLOV3在网络中的检测精度,提出一类Tiny-YOLOV3改进模型,调整检测网络架构的损失结构层,以卷积层和特征图的相关系数矩阵表征特征图分布,设计损失函数优化损失特征层分布,增强网络特征的表达能力。结合NAO机器人平台,采用三角函数定位将基于图像的目标检测位置转换为机器人坐标系位置。根据4 000张VOC数据格式自制数据集进行模型训练与测试,针对不同物体在变化位置下进行50次机器人手臂抓取实验。相比原始Tiny-YOLOV3模型,改进的网络模型在分辨率为640×480单张图片的检测速度35 帧/s前提下,检测mAP值提高了4.08%,置信度提高20%。实验结果表明算法在兼顾目标检测时间效率的前提下有效提高了目标检测准确度,可满足机器人在分拣、采摘、监控、服务等多样实时性应用场景需求。  相似文献   

16.
针对机场跑道异物(Foreign Object Debris,FOD)的小目标特点,提出一种基于改进YOLOv3的FOD目标检测算法。以YOLOv3网络为基础,采用运算复杂度相对更低的Darknet-49作为特征提取网络,并将检测尺度增加至4个,进行多尺度特征融合。使用基于马尔科夫链蒙特卡罗采样(Markov Chain Monte Carlo sampling,MCMC)的[K]-means++算法对标注边界框尺寸信息进行聚类分析。训练时引入GIoU边界框回归损失函数。实验结果表明,改进的YOLOv3目标检测算法在满足实时性要求的情况下,精确率和召回率达到了95.3%和91.1%,与Faster R-CNN相比具有更高的检测速度,与SSD相比具有更高的检测精度,有效解决了原YOLOv3存在的定位精度偏低和漏检问题。  相似文献   

17.
针对通用目标检测算法在检测小目标时存在效果不佳及漏检率较高等问题,提出了一种基于改进YOLO V3的道路小目标检测算法。对YOLO V3算法网络模型中的聚类算法进行优化,使用DBSCAN+K-Means聚类算法对训练数据集聚类分析,选取更合适的Anchor Box,以提高检测的平均精度和速度;同时引入Focal Loss损失函数代替原网络模型中的损失函数形成改进的YOLO V3算法。进而与其他目标检测算法在KITTI数据集上对行人目标进行对比检测,发现改进的YOLO V3算法能够有效降低小目标漏检率,大大提高检测的平均精度和检测速度。实验结果表明,在KITTI数据集上,改进的YOLO V3算法检测目标的平均精度达到92.43%,与未改进的YOLO V3算法相比提高了2.36%,且检测速度达到44.52?帧/s。  相似文献   

18.
针对ResNet和DLA(deep layer aggregation)为主干网络的CenterNet算法特征提取能力不充分、热力图与目标真实边界框吻合度不高、关键点损失函数未充分考虑预测值对难易样本训练比重的影响等不足,提出一种改进多尺度卷积结构与高斯核的E-CenterNet算法。引入轻量型EfficientNetV2-S作为主干网络,并结合基于金字塔分割注意力网络的多尺度卷积结构对其进行改进,提高特征提取能力;对高斯核进行改进,使CenterNet产生的热力图由固定的圆形改进为随边界框宽高变化的椭圆形,增强算法对边界框宽高差异大的目标的检测能力;提出一种基于关键点预测值的关键点损失函数,提高算法对难样本的训练比例。在Pascal VOC数据集上的实验结果表明:E-CenterNet算法的mAP达到83.3%,比原始算法提升了2.6个百分点,检测性能优于CenterNet算法。  相似文献   

19.
针对交通监控视频的车辆目标检测技术在早晚高峰等交通拥堵时段,车辆遮挡严重且误、漏检率较高的问题,提出一种基于YOLOv5s网络的改进车辆目标检测模型。将注意力机制SE模块分别引入YOLOv5s的Backbone主干网络、Neck网络层和Head输出端,增强车辆重要特征并抑制一般特征以强化检测网络对车辆目标的辨识能力,并在公共数据集UA-DETRAC和自建数据集上训练、测试。将查准率、查全率、均值平均精度作为评价指标,结果显示3项指标相比于原始网络均有明显提升,适合作为注意力机制的引入位置。针对YOLOv5s网络中正、负样本与难易样本不平衡的问题,网络结合焦点损失函数Focal loss,引入2个超参数控制不平衡样本的权重。结合注意力机制SE模块和焦点损失函数Focal loss的改进检测网络整体性能提升,均值平均精度提升了2.2个百分点,有效改善了车流量大时的误检、漏检指标。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号