首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 218 毫秒
1.
为了精准地识别无人机巡检图形中的小目标绝缘子及缺陷,本文提出了一种基于改进的深度学习目标检测网络(YOLOv4)的输电线路绝缘子缺陷检测方法.首先,通过无人机航拍及数据增强获得足够的绝缘子图像,构造绝缘子数据集.其次,利用绝缘子图像数据集训练YOLOv4网络,在训练过程中采用多阶段迁移学习策略和余弦退火学习率衰减法提高网络的训练速度和整体性能.最后,在测试过程中,对存在小目标的图像采用超分辨率生成网络,生成高质量的图像后再进行测试,以提高识别小目标的能力.实验结果表明,与Faster R-CNN和YOLOv3相比,所提算法在平均分类精度和每帧检测速率方面均有较大提升,性能表现优异.  相似文献   

2.
《广东电力》2021,34(6)
针对电力设备异常发热故障诊断过程中识别目标设备单一、红外数据集样本数目庞大、平均识别准确率较低和识别速率较低的问题,提出一种基于深度卷积神经网络的改进YOLOv3目标检测方法,识别和定位绝缘子、隔离开关触头、套管、线夹4类电力设备及其异常发热区域。在改进YOLOv3算法的训练过程中,网络将数据集图片裁剪为416×416像素大小,使用Yolomark工具对图像进行标注,得到的标签和样本集一起送入深度学习卷积神经网络进行训练,经历多轮迭代后得到最终模型,最后采用运检部门用红外热像仪现场采集的电气设备红外图谱数据进行效果测试。实验结果表明,训练得到的改进YOLOv3模型相比于YOLOv3和快速区域卷积神经网络(faster region convolution neural network,Faster R-CNN)算法,识别定位的准确率较高,检测速度更快,可基本实现实时检测,可有效应用于变电站电力设备的红外巡检工作。  相似文献   

3.
为了解决复杂背景下铁路接触网绝缘子的快速准确识别及定位问题,提出了一种YOLOv4目标检测算法和ORB特征匹配算法深度融合的绝缘子识别定位方法。首先利用迁移学习的策略训练YOLOv4检测网络,解决了绝缘子数据集样本较少导致过拟合的问题;然后采用高斯金字塔提取图像多尺度特征,使原始ORB算法具备尺度不变性;最后将以上两种算法融合,在双目相机获取的图像上标出绝缘子识别框,并在左右图像识别框内提取特征点进行匹配,利用视差原理还原出绝缘子相对于相机的三维坐标。实验结果表明,该方法可以有效地避免复杂背景干扰,准确地定位出绝缘子的三维坐标,4 m内最大定位误差为2.1%,检测速度为35 fps,具有较高的精确性和实时性。  相似文献   

4.
针对红外图像中变电设备的识别和定位问题,提出了一种基于改进YOLOv3算法的变电设备检测方法.在现场采集的变电设备红外图像集的基础上,首先使用基于Retinex的图像增强算法以及阈值分割等图像处理方法对图像集进行预处理;然后基于变电设备红外图像对YOLOv3算法进行参数优化,并通过迁移学习的策略对改进YOLOv3网络进行训练以解决图像集样本数量较少的问题.实验结果表明,在样本数量较少的情况下,所提方法可以达到满意的检测准确率,并能快速地实现变电设备的识别和定位.  相似文献   

5.
绝缘子作为输电线路中重要的元器件,对绝缘子缺陷的识别和定位在电网巡检方面有重要意义。为了对雾天情况下绝缘子状态进行准确定位识别,改进了YOLOX目标检测网络。首先,为了加快网络的训练速度,改进了激活函数;其次,为了解决小目标样本相较于整体样本较少和样本不均衡的问题,改进了图像增强方法和损失函数;最后,将改进的YOLOX网络在数据集上与4种目标检测网络进行比较。实验结果表明,在雾天数据集上,改进后YOLOX的准确度、平均准确率和每秒处理图片张数都有一定提升,符合无人机巡检的要求。  相似文献   

6.
针对配电网工程在施工现场受外界环境干扰因素多、现场监管难度大等问题,提出了一种基于改进的YOLOv5网络模型的配电网工程实时检测方法,并对配电网工程图像精确识别及缺陷检测进行了研究。首先,对配电网工程现场样本数据集进行标注,改进YOLOv5网络的特征提取网络,以加快多尺度融合并提高小目标物体检测的精度。在此基础上,改进损失函数、非极大值抑制模块,提高模型的识别精度与收敛速度。最后,经过Darknet深度学习模型对识别样本进行多次迭代训练,保存最优权重数据用于测试集的测试。算法通过 TensorBoard 可视化工具显示训练和测试结果。测试结果表明,每种配电网样本的平均识别准确率可达到95%以上,图片的识别速度可达到140 帧/s。同时,所改进算法检测准确率高,实时性强,满足工程现场实时使用需求。  相似文献   

7.
针对水面无人艇(unmanned surface vessel,USV)智能感知系统对图像处理过程的准确性和实时性要求,研究了一种根据无人艇上机载视觉传感器对水上目标进行识别与定位的算法.首先根据开源数据集与实验数据采集图像,对实验数据抽帧、去重、标注、统计,创建了水上目标识别数据库YZ10K;其次实践了主流的基于深度学习的目标检测方法,包括Faster R-CNN、SSD、YOLOv3等;最后针对水上目标特点,提出了一种基于改进YOLOv3的增强型轻量级水上目标检测网络WT-YOLO(water target-you only look once).无人船实验验证表明,WT-YOLO算法取得了准确且快速的目标识别效果,平均精度为79.30%,处理速度为30.01 fps.  相似文献   

8.
为了解决钢筋绑扎机器人对绑扎点识别准确率低,定位精度差的问题,提出一种基于深度学习的钢筋绑扎机器人目标识别与定位方法。首先采用YOLOv4算法对绑扎点目标框识别和裁剪,完成绑扎点初始定位;其次设计轮廓角点选取方法,利用角点计算绑扎点的图像坐标;之后通过融入CBAM注意力机制改进Monodepth算法的特征提取部分,解码部分引入路径增强PAN结构,以提高模型的特征提取能力,进一步提高立体匹配精度;最后通过双目立体视觉定位技术获得绑扎点深度信息,并由坐标变换求解钢筋绑扎机器人手眼坐标系映射关系,从而实现对绑扎点的精确识别和定位。实验结果表明:该方法针对绑扎点目标框的识别准确率达到了99.75%,每秒传输帧数达到54.65;在空间中的定位精度最大误差为11.6mm。可较好地识别定位绑扎点位置,为自动绑扎工作提供有力支持。  相似文献   

9.
为了实现路面缺陷的智能快速化检测,对深度学习目标检测算法YOLOv5进行改进,得到的3种检测模型(YOLOv5-A,YOLOv5-C,YOLOv5-AC)均可采用视频检测的方式对路面5类缺陷进行快速检测。采用智能手机和数码相机采集路面缺陷图像并制作数据集,在满足视频检测的需求下,使用K-means算法和1-IoU作为样本距离重新聚类anchor,得到更优的锚框参数;在网络多个结构中引入CBAM注意力机制,增强模型的特征提取能力。实验结果表明,YOLOv5-C算法在训练集上的平均精度达到91.8%,相较于原模型提高1%;YOLOv5-A算法在验证集上的平均精度达到92.7%,相较于原模型提高1.7%;在实际检测效果上,YOLOv5-AC算法在裂缝、破碎板和坑洞的识别准确度上达到89%、62%、90%,相较于原模型提高了45%、4%、5%,且模型的检测速度达到40 FPS。YOLOv5-AC算法具有较高的检测精度和识别速度,一定条件下可以满足在道路缺陷检测中的智能化实时检测需求。  相似文献   

10.
针对当前废旧切边模人工修复效率低,轨迹难以控制等问题,提出一种基于手眼系统的切边模堆焊修复轨迹生成方法。该方法在机器人焊接设备上加装单目相机建立手眼系统,并通过最小化重投影误差的优化方法来提高手眼标定精度,相机采集切边模图像后,通过图像分割、边缘提取等算法提取切边模刃口轮廓点集,采用非线性分段法对轮廓点集进行曲线拟合,从而生成平滑的运动轨迹。最后利用手眼标定结果将轨迹点转换到机器人基坐标系,实现了失效切边模堆焊修复轨迹生成自动化。实际堆焊修复实验表明,该方法修复精度在1.5 mm以内,满足机器人堆焊修复要求。  相似文献   

11.
传统的陶瓷缺陷检测主要依赖人工目测或放大镜观察,为解决检测效率低、结果主观性强等问题,提出了一种基于深度学习的陶瓷表面缺陷检测算法,针对于陶瓷杯表面的缺陷具体情况,在YOLOv5目标检测模型的基础上,增加小目标检测层,同时使用位置注意力机制进行特征重构提高检测的精确度,实现了高精度的缺陷检测。针对实际生产中的陶瓷双层杯进行数据采集训练,并对于每批数据进行推理,最终平均检测精度达到了95.4%。本文所改进的YOLOv5缺陷检测模型拥有更高的准确率、识别速度快等优点,可以极大地减少陶瓷质检减少人力物力的损耗与时间成本。  相似文献   

12.
针对普通商品识别算法在智能售货柜嵌入式系统平台上检测速度慢、识别率低的问题,提出了一种在YOLOv3基础上的改进型商品识别算法DS_YOLOv3.利用k-means++聚类算法得到适应于售货柜中售卖饮料图像数据的先验框;采用深度可分离卷积替换标准卷积,并加入倒置残差模块重构YOLOv3算法,减少了计算复杂度使其能在嵌入式平台实时检测;同时引入CIoU作为边界框回归损失函数,提高目标图像定位精度,实现了对传统YOLOv3算法的改进.在计算机工作站和Jeston Xavier NX嵌入式平台上进行了典型场景下的商品检测实验.实验结果表明,DS_YOLOv3算法mAP达到了96.73%,在Jeston Xavier NX平台上实际检测的速率为20.34fps,满足了基于嵌入式系统平台的智能售货柜对实时性和商品识别精度的要求.  相似文献   

13.
为提高工业上焊缝缺陷自动检测与处理的效率,基于深度学习提出一种改进的YOLOv5焊缝缺陷检测方法。针对焊缝样本数据不足的问题,提出一种Mosaic+Mixup的数据增强策略,同时为减少网络的计算量和网络参数量,引入轻量型的GhostNet网络代替YOLOv5主干网络中CSP1模块中的残差模块,并且采用CIOU_Loss作为坐标位置损失提高算法的收敛速度与准确率。最后使用测试集进行焊缝缺陷检测,改进的YOLOv5的平均精度均值(mean Average Precision,mAP)达到96.88%,单张图片检测时间不超过50毫秒,优于传统机器学习算法,能够满足实际工程中对焊缝缺陷的实时性检测要求。  相似文献   

14.
为通过可视化图像分析手段辅助机务检修作业人员进行铁路机车转向架螺栓紧固状态检测,提出一种基于图像识别的铁路机车转向架螺栓紧固状态检测方法。首先,使用YOLOv7算法快速定位图像中的螺栓,利用深度学习算法的强鲁棒性和泛化能力,在机务检修各场景下准确获得包含螺栓及其定位漆的螺栓目标检测结果图像。其次,将螺栓目标检测结果图像转换至YCbCr空间,结合螺栓定位漆的色彩特征,提取Cr分量图像并应用自适应分割算法,有效滤除背景像素后得到仅包含螺栓定位漆的二值化图像。最后,针对螺栓定位漆的形状、位置和角度差异,提取Hu矩特征作为螺栓定位漆状态信息的定量表征,并结合SVM建立分类模型得到最终的螺栓紧固状态检测结果。实验结果表明,该方法充分利用了铁路机车转向架螺栓的特点,在保证螺栓目标检测准确率和螺栓定位漆分割精度的情况下,在所有场景下的铁路机车转向架螺栓紧固状态查准率为92.42%,查全率为94.55%,平均正确率为93.28%。  相似文献   

15.
为了降低电力巡检机器人识别变电站指针式仪表的误检率,提高仪表读数识别的精度,设计了一种基于深度学习的指 针式仪表检测方法。 通过在 YOLOv4-tiny 网络结构基础上添加残差模块来提高模型的鲁棒性,并对 Hourglass 网络结构改进,达 到精准识别指针式仪表读数的目的。 为了验证所提出方法的有效性,以变电站现场仪表图像数据对方法进行测试,并将检测结 果与其他方法进行对比。 实验结果表明,仪表定位漏检率仅 1. 25%,指针定位精度在 1. 125%以内,整体检测时间小于 0. 5 s。 相较于常用的 Hough 直线检测与 ORB 结合或基于 U-net 模型的方法,读数识别的平均误差分别降低了 70. 8%和 58. 8%,为变电 站指针式仪表的读数识别提供新的思路。  相似文献   

16.
针对传统隧道围岩沉降监测方法鲁棒性较差、难以及时有效的监测隧道围岩沉降值的问题,提出将坐标注意力结合目标检测算法的隧道围岩沉降自适应识别测量算法。利用工业相机拍摄不同环境靶标图像建立数据集,训练具有坐标注意力的目标检测模型,在测试集中验证模型预测精度为97.9%。使用图像中靶标的数字以及LED灯点的像素坐标标定测量算法模型并计算沉降值。结果表明在25 m范围内测量误差小于1 cm,在10 m范围内的靶标测量误差小于5 mm。  相似文献   

17.
为了解决半导体制造领域缺陷检测中出现的检测效率低、错误率高、结果不稳定、成像精度低下导致无法精确地检测出 不同种类的缺陷等问题,本文利用定制的 CCD 工业相机搭配高倍率的光学显微镜采集晶圆表面的扫描图像,结合改进的 YOLOv4 算法,实现了基于深度学习的高精度晶圆缺陷检测方法。 实验表明,对于碳化硅晶圆缺陷,提出的方法模型可以识别 各种复杂条件下的不同种类缺陷,具有良好的鲁棒性。 对缺陷的平均识别精度达到 99. 24%,相较于 YOLOv4-Tiny 和原 YOLOv4 分别提升 10. 08%和 1. 92%。 对缺陷的平均每图识别时间达到 0. 028 3 s,相较于基于 Halcon 软件方法和 OpenCV 模板匹配方法 分别提升 93. 42%和 90. 52%,优于其他常规的晶圆缺陷检测方法,已实现在自主设计的验证系统和应用平台上稳定运行。  相似文献   

18.
机器人工具坐标系标定的好坏直接决定机器人工作的可靠性和准确度,准确地标定机器人工具坐标系,能有效提高机器人完成任务的效率,满足实际需要。基于最小二乘原理,将位置和姿态分开标定,操作机器人使工具末端以四种不同的姿态到达同一个位置,根据示教器上的读数解算得到工具坐标系的位置;使机器人工具末端分别沿基坐标系的X轴和Z轴正方向运动,解算得到工具坐标系相对于法兰末端坐标系的姿态。最后通过MATLAB进行仿真验证,得到工具末端的位置误差在0.1mm以内,说明该方法具有较高的精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号