首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 315 毫秒
1.
针对无人机影像中道路小目标漏检和目标之间遮挡导致的目标检测精度低、鲁棒性差等问题,提出一种多尺度融合卷积注意力模块(Convolutional block attention module, CBAM)的YOLOv5道路目标检测算法,即YOLOv5s-FCC。首先,引入小目标感知层对模型进行多尺度改进,增加一个针对小目标的YOLO检测头以提高网络对道路中小目标的特征提取能力。其次,利用CBAM融合空间和通道信息以增强网络中的重要信息,通过将CBAM引入Backbone主干网络不同位置,以获得CBAM最佳融合位置。最后,采用CIo U作为损失函数,以提高边界框预测所需的计算速度和精度。在自建的无人机道路目标数据集上进行训练,结果表明,相较YOLOv5算法,YOLOv5-FCC算法可将mAP50和mAP50-95分别提高2.0%和4.2%。在VisDrone数据集上也验证了YOLOv5-FCC算法的有效性,并建立了基于无人机的道路目标检测系统,实现道路目标的自动检测。  相似文献   

2.
为了提高氧压表的检测效率,同时完成多块氧压表的识别,利用改进后的YOLOv3目标检测算法对工业上的氧压表进行检测。首先将原YOLOv3特征提取网络调换为EfficientNet网络,提高算法的特征提取能力;其次通过制作的加强型数据集,实现仪表的特征增强;最后,利用K-means算法对数据集进行聚类,得到合适的Anchor box,提高仪表定位精度。实验结果表明,改进后的YOLOv3算法可同时完成3块氧压表的识别,且识别精度高,降低了氧压表的漏检率,并且在平均精度上达到了96.73mAP,相比于未改进的YOLOv3算法提高了7.5%,检测速度为54.2FPS,比其他目标检测算法具有更好的检测性能。  相似文献   

3.
施工现场光照多变、背景复杂、施工人员形态多样,给安全帽佩戴情况检测带来很大的困难。针对传统检测方法准确率低、鲁棒性差的问题,本文提出了一种基于深度学习的安全帽佩戴情况检测方法。该方法以YOLOv2目标检测方法为基础,对其网络结构进行了改进。首先借鉴了密集连接网络思想,在原网络中加入了密集块,实现了多层特征的融合以及浅层低语义信息与深层高语义信息的兼顾,提高了网络对于小目标检测的敏感性;然后,利用MobileNet中的轻量化网络结构对网络进行压缩,使模型的大小缩减为原来的十分之一,增加了模型的可用性。采用自制的HelmetWear数据集对改进后的网络模型进行训练和测试,并将该模型与原YOLOv2和最新的YOLOv3进行了对比,结果显示:该模型的检测准确率为87.42%,稍逊色于YOLOv3,但是其检测速度提升显著,比YOLOv2和YOLOv3分别提高了37%和215%,可达148frame/s。实验表明,改进后的网络模型能在保证检测准确率的同时,有效减小参数量,显著提升检测速度。  相似文献   

4.
针对铸件检测存在精度不够高和易漏检、误检等问题,提出一种基于多尺度特征的YOLOv5铸件自动检测算法。该算法使用双目相机采集铸件图像,并构建铸件图像数据集;为提取更全面的铸件特征,采用多尺度特征融合模块,增加一个检测层检测不同尺度的铸件;为获取更多细节特征,在特征金字塔网络中嵌入卷积注意力机制(CBAM),以提高铸件图像关键特征的提取能力;同时用Hardswish替换卷积层中的SiLU激活函数来减少模型参数量。实验结果表明,该算法检测m AP值达到了96.5%,较原YOLOv5算法提升了2.6%,能实现铸件自动检测对检测精度及实时性的要求。  相似文献   

5.
针对机器人在抓取目标工件的过程中由于光线强度变化、图像环境复杂和拍摄设备移动等造成的工件识别精度低的问题,文章提出一种改进YOLOv5s的工件识别检测算法。首先,通过数据增强扩充数据集并进行预处理;其次,使用改进的k-means聚类算法重新生成更有效的预设锚框,缩短收敛路径;然后,在特征融合网络中添加CBAM注意力机制,有效抑制背景信息干扰,提高特征提取速度;此外,将特征融合模块中原有的特征金字塔结构替换成加权双向特征金字塔Bi-FPN结构,实现高效的加权特征融合和双向跨尺度连接,提高网络对不同尺度特征的融合效率;最后,通过采用α-IoU作为边界框回归损失函数,提高模型的定位效果。结果表明,改进后的YOLOv5s算法对工件检测的mAP值提升了6.03%,检测速度提升了13.7 fps,验证了改进算法的有效性。  相似文献   

6.
为解决传统纱管分类方法效率低下、误差较高的问题,提出一种基于改进YOLOv5s算法的纱管目标识别方法。该算法融合了坐标注意力模块(CA)和Transformer模块,提出了新的SPP模块(SPP+)替换传统的SPP模块,使用加权双向特征金字塔网络(BiFPN)思想增强特征融合,并使用WIoU损失函数替代原有的损失函数。为验证改进算法性能,制作了一套纱管数据集,并基于改进YOLOv5s算法进行了纱管检测实验。实验结果表明改进的算法具有更好的识别效果。  相似文献   

7.
针对手机镜头固定槽表面缺陷过小导致自动化质检平台难以检测的问题,提出改进YOLOv5的镜头固定槽表面缺陷检测算法实现。在图片预处理阶段使用有效的数据增强策略来平衡不同类别样本的分布;在FPN中添加融合因子控制特征图融合时深层传递到浅层的信息,得到含有更多小目标信息的多尺度特征图;使用K-means算法得到更适合本数据集的先验框数量和大小。通过采集的镜头固定槽表面缺陷数据集评估本算法的性能,并和基线算法YOLOv5进行对比分析。实验结果表明,改进的算法对小目标缺陷拥有更好的检测效果,并且对各类缺陷均能实现准确分类定位,平均精度均值(mAP)达到92.70%,满足智能制造自动化生产的需求。  相似文献   

8.
无人驾驶汽车在复杂多变的交通场景中能提前且准确检测到车辆行人的动态信息尤为重要。然而,无人驾驶场景下存在相机快速运动、尺度变化大、目标遮挡和光照变化等问题。为了应对这些挑战,本文提出了一种基于注意力机制的多尺度目标检测算法。基于YOLOv3网络,首先,使用空间金字塔池化模块对多尺度局部区域特征进行融合和拼接,使网络能够更全面地学习目标特征;其次,利用空间金字塔缩短通道间的信息融合,构造了YOLOv3-SPP~+-PAN网络;最后,基于注意力机制设计了更高效的目标检测器SE-YOLOv3-SPP~+-PAN。实验结果表明:相比于YOLOv3网络,提出的SE-YOLOv3-SPP~+-PAN网络的平均精度均值提升了2.2%,且推理速度仍然保持智能驾驶平台下实时的要求。实验证明了所提出的SE-YOLOv3-SPP~+-PAN网络比YOLOv3更加高效、准确,因此更适合于实际智能驾驶场景下的目标检测任务。  相似文献   

9.
为了实现轮毂焊缝缺陷的智能化检测,本文对深度学习目标检测算法(You Only Look Once version3,YOLOv3)进行改进,得到YOLOv3-MC算法用于轮毂焊缝缺陷的检测。首先,使用工业相机采集轮毂焊缝图像,然后标注图像制作数据集,并且通过数据增强方法扩充数据集。接着,为了提高算法检测精度,使用Mish激活函数替换YOLOv3主干网络中的激活函数。修改算法的损失函数,使用完备交并比(Complete Intersection over Union,CIoU)的计算方法提升算法检测的定位精度。最后使用训练集训练算法模型,再使用验证集和测试集图像数据进行检测试验,结果表明,YOLOv3-MC的最优模型在验证集上的平均准确率(Mean Average Precision,mAP)达到了98.94%,F1得分值为0.99,平均交并比(Average Intersection over Union,AvgIoU)为80.92%,检测速度为76.59帧/秒,模型大小234MB。该模型在测试集上的检测正确率达到了99.29%。相较于传统机器视觉检测方法,该方法提高了检测精度,满足轮毂生产企业的焊缝实时在线检测需求。  相似文献   

10.
针对YOLOv5目标检测模型训练时间长、检测精度偏低问题,提出一种目标图像组合算法,考虑必要的图像背景及图像覆盖对目标图像进行分割,设计减少图像失真的重组策略提高单张训练集图像内目标个数,降低模型训练时长。改进先验框生成策略,以绝对差值作为距离函数,对训练集目标边框的长和宽分别进行一维K-means聚类,提高先验框对训练集的适应度。提出多层并列卷积结构,对输入特征经过三层并列卷积后的输出进行融合,增强特征表征能力。以VOC2007和VOC2012训练集和验证集作为训练图像,采用目标图像组合算法,模型训练时间减少30%以上,改进先验框生成策略使先验框对训练集的适应度达到0.735。在VOC2007测试数据集上测试,改进YOLOv5模型平均准确率均值(mAP)由79.1%提升至80.3%。  相似文献   

11.
针对目前铸件缺陷检测漏检率高的问题,提出一种基于深度学习模型融合的铸件缺陷检测方法。 首先对 Faster RCNN 网络进行改进,利用特征金字塔结构改进特征提取网络模块,实现多尺度的特征融合,完成铸件缺陷的特征提取;然后,基于 ROI Align 对网络中的 ROI 池化层进行改进,将 IOU 分数引入 NMS 算法判定过程;再将改进后的网络与 Cascade RCNN 以及 YOLOv3 进行融合;最后进行实验研究,验证了融合模型能够有效降低铸件缺陷的漏检率。 实验结果表明,将感兴趣区域池化 改进后,在 Faster RCNN 模型中的缺陷召回率提升了 1. 73% ,在本文网络模型中的缺陷召回率提升了 4. 08% ;采用模型融合的 方法在不考虑分类准确度的情况下,整个模型的缺陷识别率达到 95. 71% ,与单个模型相比,在保证铸件缺陷检测准确率的同 时,提高了缺陷检测的召回率,满足了工业应用的要求。  相似文献   

12.
为了提高生产效率,设计一种基于视觉引导的工业棒材上料系统。首先,为了实现视觉引导进行工业棒材上料,设计了工业棒材上料总体方案,并对上料机械结构模型进行选型设计。然后,为了实现棒材的自动识别和位姿检测,提出了一种基于改进YOLOv5的旋转目标识别与定位算法。该方法在YOLOv5主干特征网络上,添加高效ECA通道注意力机制模块,利用其避免降维,并通过适当跨通道交互策略提高特征提取能力;为了增强不同尺度的特征信息融合,将原特征增强网络替换成BiFPN加权双向特征金字塔网络,进行自上而下和自下而上的多尺度特征融合,提高棒材识别准确率并获取平面位置信息;在此基础上,采用双目视觉进行立体匹配获取棒材的深度位置信息,最终实现棒材立体位姿检测。对所提上料系统进行实验验证,棒材识别的平均精度为99.4%,抓取棒材成功率达到90%及以上。  相似文献   

13.
瑚琦  卞亚林  王兵 《光学仪器》2022,44(5):14-19
小尺寸的物体由于其在图像中分辨率相对较低的原因,在检测任务中容易被丢失和误判。针对目前目标检测算法对小尺寸目标检测精确度远低于其他尺寸目标检测精度的问题加以改进,将小尺寸目标特征增强融入特征金字塔结构。利用多尺度特征融合的特征增强能力丰富小尺寸目标特征层的特征信息,从而使小尺寸目标检测精准度得到提升。将改进特征金字塔结构应用于YOLOv3网络,实验对比研究表明,小尺寸目标检测精准度可以达到0.179,较原网络提升了22.6%。  相似文献   

14.
基于卷积神经网络的热轧钢条表面实时缺陷检测   总被引:1,自引:0,他引:1       下载免费PDF全文
热轧钢条的表面质量对成品至关重要,因此必须要严格控制热轧钢条的表面出现的缺陷。 针对当前 YOLOv4 算法检测 精度不高、对小范围信息表现较差等问题,提出一种改进 YOLOv4 自动检测方法。 首先,将 YOLOv4 中特征提取网络 CSPDarknet53 换为轻量级深层神经网络 MobileNetv3 来提高检测速度,并且加强对检测目标特征提取以及减少梯度消失问题。 其次,采用 K-Means 聚类生成适合本实验的先验框,有效提高学习效率,加快收敛速度。 最后,对置信度损失进行重新定义,提 出一种能够适应多尺度的损失函数,来解决因正负样本不平衡而导致检测效果差的问题。 实验结果表明,该方法较原 YOLOv4 模型在热轧钢条的表面缺陷检测上的均值平均精度值提高约 7. 94% ,速度提升约 4. 52 f / s,在保证检测速度的基础上有效提高 了精确度。  相似文献   

15.
汤婷  张岩  安宗文 《轴承》2022,(2):68-74
为精准检测齿轮箱轴承故障,实时进行有效监测以保证风电齿轮箱健康运行,提出一种基于孤立森林算法的风电齿轮箱轴承故障检测方法.首先,以齿轮箱轴承温度为故障检测模型的输出变量,采用多尺度图相关算法选择输入变量;然后,提取输入变量的均方根和包络线进行自组织映射神经网络特征融合;最后,以融合值为模型输入量,使用孤立森林算法进行异...  相似文献   

16.
介入手术导丝的末端检测是保证手术精准控制和安全性的关键,本文针对术中导丝末端检测的临床需求,提出一种基于改进YOLOv4Tiny网络的导丝末端检测方法。该方法基于YOLOv4Tiny网络架构,通过优化特征提取网络中的残差结构,增加注意力机制和混合膨胀卷积网络,实现算法对小目标特征提取能力和检测精度的提升、感受野的扩大,且在保证图像的分辨率的同时不增加计算量。为了验证本文改进算法的有效性,对算法在构建数据集和实际手术数据集中分别进行了测试。实验结果表明:本文改进算法在构建数据集中的平均精度可达97.6%,导丝末端的检测误差不足5%,在实际手术数据集中的平均精度为92.8%。本文改进算法为介入手术导丝的末端检测提供了有效方法,在生物医学机器人等领域具有广阔的应用前景。  相似文献   

17.
针对轨道入侵异物对行车安全造成的极大威胁,而现有的轨道目标检测算法难以平衡检测精度和速度、易受复杂环境影响以及难以部署于嵌入式设备等问题,提出了一种轻量型自适应多尺度卷积神经网络,其通过特征图线性变换简化特征提取过程,使用自适应多尺度特征融合优化特征表达能力,并通过设计轻量型注意力进一步提升异物检测精度;同时,结合NVIDIA Jetson TX2嵌入式平台,研制了轨道入侵异物自主检测系统。实验结果表明,本文提出的模型很好地平衡了检测速度和精度,在NVIDIA GeForce GTX1080Ti的GPU平台上对轨道数据集的检测速度为297 FPS,检测精度为92.96%,比YOLOv4-tiny高7.72%,实现了在轨道交通复杂场景下高精度、高速度以及高鲁棒性的检测入侵异物。  相似文献   

18.
针对现用PCB缺陷检测方法存在效率低、误检率高、通用性低、实时性差等问题,提出基于改进YOLOv4算法的PCB缺陷检测方法。使用改进二分K-means聚类结合交并比(IoU)损失函数确定锚框,解决预设锚框不适用PCB小目标缺陷检测的问题。引用MobileNetV3作为特征提取网络,提升对PCB小目标缺陷的检测性能,同时方便部署在现场轻量化移动端。引入Inceptionv3作为检测网络,利用多种卷积核进行运算满足PCB缺陷多类别的检测要求。以PCB_DATASET数据集为测试对象,将本文方法与Faster R-CNN、YOLOv4、MobileNetV3-YOLOv4等开展对比验证实验。结果表明,本文方法均值平均精度(mAP)为99.10%,模型大小为53.2 MB,检测速度为43.01 FPS,检测mAP分别提升4.88%、0.05%、2.01%,模型大小分别减少0、203.2、3.3 MB,检测速度分别提升29.93、6.37、0.79 FPS,满足PCB工业生产现场高检测精度和检测速度要求。  相似文献   

19.
With the rapid development of video image technology and fifth-generation mobile network technology, the automatic verification of mechanical water meters has become an increasingly important topic in smart cities. Although much research has been done on this subject, the efficiency and accuracy of existing water meter pointer reading technology can still be improved. This paper proposes a new water meter pointer reading recognition method based on target-key point detection. Our method consists of a target detection module and a key point detection module. The target detection module uses a modified YOLOv4-Tiny network to detect and classify the areas where the dials and pointers are located in water meter images with distinct characteristics. The key point detection module is used to detect the key point of the pointer image. In this module, the structure of the RFB-Net network is improved to introduce multiple layers of low-level feature information, therefore, it can make full use of the information between multi-scale feature layers for key point detection. In addition to, aiming at the problem of dial rotation, a method of establishing a right-angle coordinate system based on key point is proposed to realize pointer reading. The whole method proposed in this paper is compared to the Hough transform feature matching algorithm and traditional machine learning algorithms through experiments which test the detection and recognition of the water meter dial, pointer and key points. The experiment results show that the missed detection rate of the model in this paper is 1.88% and 1.07% for the dial region and the pointer region, respectively. And the accuracy rate reaches 98.68%, the average processing time per image is 0.37 s. This implies that the water meter inspection task is completed quickly and accurately with strong robustness. Thanks to the lightweight algorithm of our approach, the model can also be fully automated and easily deployed on mobile devices.  相似文献   

20.
为了提升无人艇对典型水面小目标感知能力,本文提出了基于多尺度卷积融合结构和空间注意力加强的改进型SSD目标检测算法。首先,对SSD浅层网络进行多尺度卷积融合,提升浅层网络的语义信息;其次,设计空间注意力结构对卷积特征层逐个增强,提升对弱纹理小目标特征保持性;最后,在VOC公开数据集和自构水面目标数据集上进行了测试,并基于无人艇开展了真实海域目标检测识别验证。实验结果表明,该算法在无人艇Nvidia平台的运行效率可达15 fps,能准确检测识别浮标、桥墩、渔船、快艇和货船等目标,在典型海面场景虚警率为5%时的小目标检测率相对原生SSD算法提升近20.2%,平均有效检测率达到79.3%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号