首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为了实现轮毂焊缝缺陷的智能化检测,本文对深度学习目标检测算法(You Only Look Once version3,YOLOv3)进行改进,得到YOLOv3-MC算法用于轮毂焊缝缺陷的检测。首先,使用工业相机采集轮毂焊缝图像,然后标注图像制作数据集,并且通过数据增强方法扩充数据集。接着,为了提高算法检测精度,使用Mish激活函数替换YOLOv3主干网络中的激活函数。修改算法的损失函数,使用完备交并比(Complete Intersection over Union,CIoU)的计算方法提升算法检测的定位精度。最后使用训练集训练算法模型,再使用验证集和测试集图像数据进行检测试验,结果表明,YOLOv3-MC的最优模型在验证集上的平均准确率(Mean Average Precision,mAP)达到了98.94%,F1得分值为0.99,平均交并比(Average Intersection over Union,AvgIoU)为80.92%,检测速度为76.59帧/秒,模型大小234MB。该模型在测试集上的检测正确率达到了99.29%。相较于传统机器视觉检测方法,该方法提高了检测精度,满足轮毂生产企业的焊缝实时在线检测需求。  相似文献   

2.
针对YOLOv5目标检测模型训练时间长、检测精度偏低问题,提出一种目标图像组合算法,考虑必要的图像背景及图像覆盖对目标图像进行分割,设计减少图像失真的重组策略提高单张训练集图像内目标个数,降低模型训练时长。改进先验框生成策略,以绝对差值作为距离函数,对训练集目标边框的长和宽分别进行一维K-means聚类,提高先验框对训练集的适应度。提出多层并列卷积结构,对输入特征经过三层并列卷积后的输出进行融合,增强特征表征能力。以VOC2007和VOC2012训练集和验证集作为训练图像,采用目标图像组合算法,模型训练时间减少30%以上,改进先验框生成策略使先验框对训练集的适应度达到0.735。在VOC2007测试数据集上测试,改进YOLOv5模型平均准确率均值(mAP)由79.1%提升至80.3%。  相似文献   

3.
针对工业棒料存在遮挡干扰时难以快速有效识别的问题,提出了一种基于改进 YOLOv4 的棒料识别算法。首先对 YOLOv4 进行轻量化改进,将改进的 Mobilenetv3 作为 YOLOv4 的主干网络,以减少模型参数量,提高算法的检测速度。然后提出在 YOLOv4 原损失函数基础上串联 Repulsion 损失函数,此新增损失函数包含 2 部分: RepGT 损失和 RepBox 损失,RepGT 损失函数计算目标预测框与相邻真实框所产生的损失值,用来减少棒料误检;RepBox 损失函数计算目标预测框与相邻的其他目标预测框所产生的损失值,用来减少棒料漏检。实验结果表明,改进算法的检测速度为 63 帧/ s ,比原 YOLOv4 算法提升了20 帧/ s ;识别准确率达到 97.85% ,比原 YOLOv4 算法提升了 1.62% 。  相似文献   

4.
缺陷检测是印制电路板(PCB)生产过程中质量控制的重要环节。由于PCB表面缺陷尺寸微小,导线布局复杂多样,现有的检测算法难以充分利用微小缺陷的特征信息,其检测准确率难以满足生产需求。为解决上述问题,提出针对PCB微小缺陷检测的YOLOv5-TDD算法。该算法在YOLOv5基础上,首先在颈部网络中增加浅层特征融合分支,提升微小缺陷特征信息流通效率;其次引入SE-SiLU注意力机制模块,以对特征信息分配权重的方式,提高网络对浅层特征的微小缺陷信息关注度。实验结果表明,YOLOv5-TDD在PCB_DATASET缺陷数据集测试中,其检测精度mAP为99.12%,相较于YOLOv5提高了3.54%,检测精度优于其他算法。  相似文献   

5.
针对机器人在抓取目标工件的过程中由于光线强度变化、图像环境复杂和拍摄设备移动等造成的工件识别精度低的问题,文章提出一种改进YOLOv5s的工件识别检测算法。首先,通过数据增强扩充数据集并进行预处理;其次,使用改进的k-means聚类算法重新生成更有效的预设锚框,缩短收敛路径;然后,在特征融合网络中添加CBAM注意力机制,有效抑制背景信息干扰,提高特征提取速度;此外,将特征融合模块中原有的特征金字塔结构替换成加权双向特征金字塔Bi-FPN结构,实现高效的加权特征融合和双向跨尺度连接,提高网络对不同尺度特征的融合效率;最后,通过采用α-IoU作为边界框回归损失函数,提高模型的定位效果。结果表明,改进后的YOLOv5s算法对工件检测的mAP值提升了6.03%,检测速度提升了13.7 fps,验证了改进算法的有效性。  相似文献   

6.
施工现场光照多变、背景复杂、施工人员形态多样,给安全帽佩戴情况检测带来很大的困难。针对传统检测方法准确率低、鲁棒性差的问题,本文提出了一种基于深度学习的安全帽佩戴情况检测方法。该方法以YOLOv2目标检测方法为基础,对其网络结构进行了改进。首先借鉴了密集连接网络思想,在原网络中加入了密集块,实现了多层特征的融合以及浅层低语义信息与深层高语义信息的兼顾,提高了网络对于小目标检测的敏感性;然后,利用MobileNet中的轻量化网络结构对网络进行压缩,使模型的大小缩减为原来的十分之一,增加了模型的可用性。采用自制的HelmetWear数据集对改进后的网络模型进行训练和测试,并将该模型与原YOLOv2和最新的YOLOv3进行了对比,结果显示:该模型的检测准确率为87.42%,稍逊色于YOLOv3,但是其检测速度提升显著,比YOLOv2和YOLOv3分别提高了37%和215%,可达148frame/s。实验表明,改进后的网络模型能在保证检测准确率的同时,有效减小参数量,显著提升检测速度。  相似文献   

7.
针对铸件检测存在精度不够高和易漏检、误检等问题,提出一种基于多尺度特征的YOLOv5铸件自动检测算法。该算法使用双目相机采集铸件图像,并构建铸件图像数据集;为提取更全面的铸件特征,采用多尺度特征融合模块,增加一个检测层检测不同尺度的铸件;为获取更多细节特征,在特征金字塔网络中嵌入卷积注意力机制(CBAM),以提高铸件图像关键特征的提取能力;同时用Hardswish替换卷积层中的SiLU激活函数来减少模型参数量。实验结果表明,该算法检测m AP值达到了96.5%,较原YOLOv5算法提升了2.6%,能实现铸件自动检测对检测精度及实时性的要求。  相似文献   

8.
为实现丁腈手套缺陷的自动检测,提出一种基于YOLOv5s网络的识别方法。首先根据COCO数据集格式构建自制数据集,然后利用自制数据集对网络进行训练,最后使用工业相机采集的图片对训练好的YOLOv5s网络进行测试。实验结果表明基于YOLOv5s网络的陷检测模型对手套缺陷检测准确率为95.43%,检测精度为97.26%,检测速度为111.35fps。该方法可以满足生产线上丁腈手套缺陷检测的准确性和实时性需求。  相似文献   

9.
随着计算机视觉行业的不断发展,基于卷积神经网络的目标检测算法也受到了研究人员的重视。针对传统的YOLOv5目标检测算法中的边界框回归损失函数GIOU存在当检测框与真实框呈包含的状态时会退化到传统IOU损失函数,以及当检测框和真实框相交时在垂直和水平两个方向上存在收敛速度慢的问题,提出一种改进的YOLOv5目标检测算法。在传统YOLOv5的基准网络中添加注意力机制,然后在边界框回归损失函数中引入真实框与预测框中心的欧式距离计算预测损失,并分别计算预测框与真实框之间的纵横比作为惩罚项以达到提高回归精度以及加快收敛速度的目的,最后将改进后的YOLOv5目标检测模型应用于人脸检测进行验证。实验利用wideface人脸数据集训练,训练结果表明改进的YOLOv5目标检测算法训练中的损失只有0.013,较传统的YOLOv5目标检测算法损失减少约13.33%,准确率达到82.28%,较传统的YOLOv5目标检测算法提高2.6%。实验表明该目标检测算法能很好的应用于人脸检测中。  相似文献   

10.
针对无人机航拍图像检测存在小目标检测准确率低以及检测模型计算量过大的问题,提出了一种基于改进YOLOv5的无人机小目标检测方法。首先,针对小目标存在漏检的问题,在YOLOv5的特征提取网络中引入了高效通道注意力机制(ECA)模块,提高对小目标的特征提取能力,进而提高小目标检测精度;其次,针对模型计算量大的问题,将模型中的CBL模块进行改进,把其中的普通卷积替换为Ghost卷积,减少模型参数和计算量,以便于在小型嵌入式设备部署;最后为了进一步优化和改进YOLOv5算法,采用加权损失函数,以充分学习图像特征。在DOTA数据集上进行测试,实验结果表明,改进的模型提升了小目标检测效果,其mAp为73.1%,比原算法提高了1.9%,速度达到了92 ms,可以准确地完成无人机航拍小目标检测任务,同时也满足实时性要求。  相似文献   

11.
随着我国大规模输电线路网络的发展建设,部分输电线路不可避免地需要穿越地质复杂、易发生滑坡区域,滑坡灾害会严重威胁输电线路的安全稳定运行,针对上述问题,提出一种改进YOLOv5(YOLOv5-BC)深度学习滑坡灾害识别方法,引入BiFPN结构替换PANet提高多层特征融合能力,引入CIoU替换GIoU损失函数,使最终预测框更接近真实框,提升预测精度。实验结果表明,算法在滑坡数据集上较YOLOv5、Faster-RCNN算法准确率均具有显著优势,可以满足实际应用需求。  相似文献   

12.
针对滤光片产品定位检测准确率低、实时性差的问题,提出改进的YOLOv4检测算法,并提出强定位非极大值抑制方法,改善YOLOv4算法中传统非极大值抑制法的预测框处理过程,解决预测框定位偏差的问题;设计一种静态模型滤波器融合方法,对静态YOLOv4主干特征提取网络中的卷积、池化等耗时运算进行线性融合,解决网络检测实时性差的问题。实验结果表明:改进后的YOLOv4定位准确率达到99.41%,实时性比原始YOLOv4提高14帧/s。  相似文献   

13.
传统的图像处理方法对生产过程中各种金属板材表面缺陷检测效率低,难以满足工业生产的需求。为了提高金属板材表面缺陷检测的精度,文章提出了一种基于优化Faster R-CNN算法的金属板材表面缺陷检测方法,以残差网络ResNet50作为主干特征提取网络。首先,融合特征金字塔网络和可变形卷积网络以提高对小目标和不规则性缺陷的检测能力。然后,采用RoI Align和K-means++聚类算法对候选框进行优化,实现缺陷的精准定位。最后,将提出的模型运用在NEU-DET数据集中进行多次实验。实验结果表明,优化后的Faster R-CNN算法在此数据集上的mAP为78.7%,与原始网络相比提高了7.7%,并且其检测性能优于SSD、YOLOv5s和YOLOv7三类目标检测算法。  相似文献   

14.
为解决常规深度学习方法检测轮毂内部缺陷存在模型尺寸大、参数多和精度低等问题,提出一种轻量化YOLOv4的轮毂内部缺陷检测算法。该算法采用MobileNetV3替换YOLOv4的主干特征提取网络,并利用深度可分离卷积模块对YOLOv4的PANet(path aggregation network)模块中的传统卷积进行了替换。同时,在PANet特征加强网络中加入通道注意力机制(SE)模块,提高了轮毂内部缺陷目标的识别精度。测试结果表明,所提算法检测精度为90.23%,权值文件为45.2 MB,检测速率为68.38帧/s。相较于常规模型性能有所提升,更适用于轮毂内部缺陷的快速、准确检测。  相似文献   

15.
瑚琦  卞亚林  王兵 《光学仪器》2022,44(5):14-19
小尺寸的物体由于其在图像中分辨率相对较低的原因,在检测任务中容易被丢失和误判。针对目前目标检测算法对小尺寸目标检测精确度远低于其他尺寸目标检测精度的问题加以改进,将小尺寸目标特征增强融入特征金字塔结构。利用多尺度特征融合的特征增强能力丰富小尺寸目标特征层的特征信息,从而使小尺寸目标检测精准度得到提升。将改进特征金字塔结构应用于YOLOv3网络,实验对比研究表明,小尺寸目标检测精准度可以达到0.179,较原网络提升了22.6%。  相似文献   

16.
针对无人机影像中道路小目标漏检和目标之间遮挡导致的目标检测精度低、鲁棒性差等问题,提出一种多尺度融合卷积注意力模块(Convolutional block attention module, CBAM)的YOLOv5道路目标检测算法,即YOLOv5s-FCC。首先,引入小目标感知层对模型进行多尺度改进,增加一个针对小目标的YOLO检测头以提高网络对道路中小目标的特征提取能力。其次,利用CBAM融合空间和通道信息以增强网络中的重要信息,通过将CBAM引入Backbone主干网络不同位置,以获得CBAM最佳融合位置。最后,采用CIo U作为损失函数,以提高边界框预测所需的计算速度和精度。在自建的无人机道路目标数据集上进行训练,结果表明,相较YOLOv5算法,YOLOv5-FCC算法可将mAP50和mAP50-95分别提高2.0%和4.2%。在VisDrone数据集上也验证了YOLOv5-FCC算法的有效性,并建立了基于无人机的道路目标检测系统,实现道路目标的自动检测。  相似文献   

17.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳.为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法.首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像.然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像.最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测.实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力.  相似文献   

18.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳.为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法.首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像.然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像.最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测.实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力.  相似文献   

19.
深度卷积神经网络在图像特征表示方面优于传统手工特征,将其用于闭环检测时还存在计算时间随着数据增长不断增加的问题。为了解决这一问题,提出了一种基于VGG16模型的快速闭环检测算法。该算法使用在ImageNet上预训练的VGG16网络模型提取图像卷积特征,并通过一种自适应粒子滤波方法得到闭环候选帧,以固定运算时间。在主流的闭环检测数据集City Centre和New College上对此算法进行测试,实验结果显示,该算法在两个数据集上可以分别达到92%准确率下70%召回率和96%准确率下61%召回率,超过了同类算法,并有效解决了计算时间增长的问题。  相似文献   

20.
为了提高工业现场等复杂场景下的小目标检测的准确率,降低工业现场的安全事故发生率,基于 YOLOv3 提出了一种改进多尺度特征融合方法。该方法增加了Inception _ shortcut 模块,优化网络的输出宽度,使用工业现场的监控视频作为数据集以及利用 k-means 算法对检测目标重新聚类,引入了 PANet 多尺度特征融合结构,精简了 YOLOv3 的网络检测输出层。在创建工业现场安全帽、安全绳数据集 FHPD 、FSRPD 以及 PASCAL VOC2007 数据集上的实验结果表明,改进算法的 mAP 比原始 YOLOv3 提高了许多。改进的多尺度特征网络融合增加了参数,但检测速度仍满足算法的实时性要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号