首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
针对机器视觉领域中并联机器人存在目标识别模糊,分类效率差以及反应速度过慢的问题,提出了一种基于深度学习的并联机器人定位检测技术。首先对目标识别物进行图像采集,改进图像数据集,将处理前后图像放入训练集提高网络效率,搭建YOLOX目标检测分类识别算法提高并联机器人检测精度;其次改进训练方式,通过预训练与实际训练提高可靠性,改进损失策略;然后建立并联机器人主体基坐标系与相机坐标系,结合手眼标定与相机标定方法,求得目标实际坐标与机器人基坐标系的转换关系;最后在并联机器人实验平台验证目标标定结果,对比主流深度学习算法YOLOv3、YOLOv4、Faster-RCNN得出的并联机构网络定位与实际定位的相对误差,结果表明YOLOX的定位精度误差为3.992-5.061mm之间,平均精确度达到了91%左右。该方法可为并联机器人结合深度学习实现检测定位提供一定参考价值。  相似文献   

2.
针对传统输电线路目标巡检图像识别方法响应速度慢,准确率不高的问题,提出一种改进Faster-RCNN深度学习识别算法。文中通过卷积神经网络ZFnet提取图像特征,并重置模型参数以获取更多目标细节;利用Faster-RCNN对目标进行检测,由子网络区域提议模型生成目标候选框和子网络Fast-RCNN进行参数调优,并在Faster-RCNN网络输出部分引入精炼阶段,增加目标特征的分类细化和回归细化,将存在目标的多个边界框合并,实现精确分类以及坐标定位。实验结果表明:改进Faster-RCNN算法可有效识别线路设备及设备缺陷,总体识别率达到93.5%,响应时间在1s内。与图像识别法或SSD、YOLO深度学习法相比,所提算法提高了电力设备的识别精度与响应速度,在输电线路智能巡检中具有一定的优越性。  相似文献   

3.
高空带电作业机器人对目标物的精细化作业,需要合适的视觉辅助系统判断机械臂或爪具的位置与距离。提出一种将基于双目立体视觉的带电作业机器人目标识别与定位方法。通过对传统的Census算法进行改进,用窗口均值像素代替中心像素,用自适应窗口代替固定窗口,并与差的绝对和(SAD)算法加权融合,得到一种改进的SAD-Census立体匹配融合算法。利用该算法进行像素匹配运算,得出视差图;在YOLO框架下训练输电线螺栓数据集,获得螺栓深度距离并精准识别。螺栓定位实验结果表明,该方法在近距离定位时能达到1.2%的定位精度,最小相对误差为0.5%,能够为带电作业机器人提供实时准确的环境感知信息,提高了带电作业机器人作业的稳定性。  相似文献   

4.
针对当前垃圾分拣算法对废旧塑料瓶检测效率低、环境受限和仅限于颜色识别等问题,本文提出了一种有效的垃圾塑料瓶识别与定位方法,以采集高像素图像为基础提取原始图片,通过YOLOv3算法的浅层增强特征将图片中目标进行一系列卷积获得不同的特征,并输入各检测分支进行检测,将不同尺度特征图经过k-means聚类算法做锚框处理,利用位置预测实现最终的识别与定位检测结果。通过模型测试,YOLOv3算法在识别速度和算法的繁琐性上都优于其他的一些算法,平均识别准确率达到90%、检测时间约0.4s以内、定位精度约±5cm。证明了此算法对于复杂环境下废旧塑料瓶目标检测的有效性和实用性。  相似文献   

5.
为了解决传统算法对于铁路货运列车车号识别准确率不高问题,提出了一种面向铁路货车车号定位的 Faster R-CNN 神 经网络。 通过调整特征提取网络的相关尺寸参数及连接方式增强了最后一层卷积特征图的细节特征。 并采用 k-means++聚类 算法求取车号区域长宽比改进 anchor 尺寸设计,使目标检测框与实际车号区域更加贴合。 实验过程中,采用了数据增广、 dropout 方法提升网络的鲁棒性。 结果显示,改进 Faster R-CNN 网络在铁路货车车号定位精度达到了 93. 15%,召回率 90. 76%, 综合 F1 指标 91. 94%,也说明该方法能够对铁路货车车号准确定位,并为车号识别过程提供可靠的数据支持。  相似文献   

6.
针对地下隧道电缆设备异常状态识别中目标设备较为单一、异常状态相对简单、综合识别速率和准确率较低的问题,文章提出一种改进的YOLO目标检测架构,对电缆设备进行定位和异常状态识别。首先,采用图像缩放方法调整图像尺寸为448×448,再利用卷积神经网络对特征进行提取,其中每一层采用批量归一化方法规范模型,最后通过RPN网络预测目标边界框。采用珠海地下电缆隧道中的图像数据进行仿真实验,并与YOLO和Faster RCNN算法进行对比,实验结果验证了所提出方法的有效性,且算法识别准确率较高、鲁棒性好,可有效应用于地下电缆隧道的巡检机器人系统中。  相似文献   

7.
为解决当前装配机器人视觉系统对元器件误检率高、效率低、难获取有效定位信息的问题,提出了一种基于深度学习的元器件视觉识别和定位方法。首先,设计基于深度聚合和解耦头的高精度检测算法,提高元器件识别和主体检测的精度;其次,设计标注和判定规则,细化定位主体轮廓和抓取点;最后,设计基于网络剪枝的轻量化检测算法,实现模型压缩,提高引脚检测和装配点定位的效率。研究结果表明:该方法在元器件的识别和定位上取得了较好表现,类别识别平均错误率仅为0.27%,计算量减少了29.8%,参数量减少了22.7%,并将传统的元器件轮廓检测扩展到抓取点和装配点定位,得到丰富的类别和位置指引信息,为工业机器人精准、可靠、稳定地抓取和装配做好基础。  相似文献   

8.
机器人作业环境复杂,物料分布具有随机性,导致机器人目标位姿的辨识和定位精度低,实时性差,为此提出一种基于改进粒子群算法-BP神经网络(PSO-BP)的机器人目标位姿识别方法。采用改进的中值滤波算法对目标图像预处理,构建多尺度灰度差异算子以及局部图像熵算子,将两者点积运算获取加权局部熵,抑制目标图像中的噪声。通过多视图几何中间帧的关联特征信息,提取机器人目标位姿特征。在BP神经网络训练阶段通过改进的PSO算法优化处理,采用优化后的BP神经网络算法对提取的特征展开训练和识别,最终实现机器人目标位姿识别。实验结果表明,当机器人目标测试样本数量为55个时,所提方法的亮度方差为0.305,当像素识别误差为1.5%时,所提方法获取的机器人目标位姿识别误差为0.11,所提方法能够在像素识别误差下准确识别机器人目标,获取高精度的机器人目标位姿识别结果。  相似文献   

9.
变电站绝缘子因其表面极易受潮湿天气的影响出现污秽导致变电设施发生闪络事故,这直接关系到变电站供电的稳定性。因此,有必要研发带电作业机器人实现对支柱绝缘子的清洗,保障电力系统稳定运行。设计了基于双目视觉的绝缘子清洗机器人,完成了双目视觉系统对目标绝缘子的识别与定位。使用YOLOv4-tiny深度学习网络算法对支柱绝缘子与法兰目标进行识别检测,检测准确率达92.29%。基于立体匹配对摄像机采集图像中的目标物体上的点对进行搜索,获取目标绝缘子深度信息并对绝缘子目标点进行三维重建。实验结果显示,目标点的平均深度误差为0.73 cm,精度满足机械臂抓取需要。针对后续机械臂的夹持清洗任务,建立绝缘子视觉观测模型,获取相机观测角,通过ROI区域对绝缘子盘轮廓进行提取,利用最小二乘法对绝缘子伞裙边进行椭圆拟合,对绝缘子伞裙边缘信息检测,可实现对机械臂末端干冰喷头倾角调整,进而完成对绝缘子盘凹壑进行精准清洗。  相似文献   

10.
针对普通商品识别算法在智能售货柜嵌入式系统平台上检测速度慢、识别率低的问题,提出了一种在YOLOv3基础上的改进型商品识别算法DS_YOLOv3.利用k-means++聚类算法得到适应于售货柜中售卖饮料图像数据的先验框;采用深度可分离卷积替换标准卷积,并加入倒置残差模块重构YOLOv3算法,减少了计算复杂度使其能在嵌入式平台实时检测;同时引入CIoU作为边界框回归损失函数,提高目标图像定位精度,实现了对传统YOLOv3算法的改进.在计算机工作站和Jeston Xavier NX嵌入式平台上进行了典型场景下的商品检测实验.实验结果表明,DS_YOLOv3算法mAP达到了96.73%,在Jeston Xavier NX平台上实际检测的速率为20.34fps,满足了基于嵌入式系统平台的智能售货柜对实时性和商品识别精度的要求.  相似文献   

11.
针对户外光照、斗臂车振动、作业场景不固定等因素对配网带电作业机器人作业定位的影响,讨论了配网带电作业激光数据感知、设备对象识别和位置自动定位的问题.提出了基于场景语义的自动作业定位方法,解决了太阳强光直射对激光雷达致盲的影响,减少了机械臂与传感器的位置校准过程,通过整体特征量分析,减少离散点和抖动干扰,实现作业设备对象...  相似文献   

12.
同时定位与地图构建(SLAM)是当今机器人领域的主要研究课题之一。针对如何根据图像估计相机位姿问题,提出一种基于VINS的视觉里程计改进方法(ORLK-VINS)。首先,通过双目相机获取图像信息;其次,将图像信息进行直方图均衡化处理,使图像对比度和亮度得到改善;然后,对原图像特征提取算法进行改进,引入ORB算法中带有方向的FAST角点;最后再将提取的特征点进行正反向的LK光流跟踪匹配,保证匹配特征点的精确性。实验表明,经过改进后的视觉里程计相较于主流的VINS-Fusion算法,在某些场景下拥有更好的实时性和定位准确性。  相似文献   

13.
为解决钢丝帘布表面缺陷检测准确率低且泛化能力不强的问题,提出了一种基于DCGAN和改进YOLOv5s的缺陷检测方法。首先,通过调整DCGAN网络参数并优化超参数,使生成器能够生成具有丰富特征和清晰纹理的钢丝帘布缺陷图像,从而扩充数据集;其次,采用K-means++算法对钢丝帘布缺陷数据重新聚类锚框,以获得更优的锚框参数,实现锚框与实际缺陷的精确匹配;然后,在YOLOv5s主干网络中的C3模块添加坐标注意力机制,以增强模型的特征提取能力和精确定位能力;最后,引入MPDIoU损失函数替换YOLOv5s原损失函数,进一步提高检测精度。实验结果表明,在实测钢丝帘布缺陷数据集上,采用DCGAN数据增强和改进后的YOLOv5s检测模型,缺陷检测平均精度提高了6.6%,达到了89.4%,并且检测准确率和召回率也有所提高。与其他主流检测模型相比,该模型不仅在检测速度上提高了约30%,还保持较高的检测精度。在公开的NEU-DET数据集上,该模型的mAP值达到了82.6%,较原始YOLOv5s模型提高了3.8%。  相似文献   

14.
针对传统ORB-SLAM2算法精度较低、图片帧跟踪容易丢失的问题,以及没有构建稠密点云地图与OctoMap的问题,原本构建的稀疏点云地图不能直接应用于机器人的三维路径规划。在传统ORB-SLAM2算法基础上,对关键帧的选取进行了改进。首先,在传统的ORB-SLAM2算法的基础上,在相邻图像帧间添加相对运动量的综合变换因数,并添加帧间特征点跟踪来提高关键帧选取的准确性;然后,使用已选取关键帧进行稠密点云地图与OctoMap的构建;最后,在TUM数据集上进行验证,并基于真实环境进行物理测试。实验结果表明,改进的关键帧选取方法在保证关键帧选取的准确性和快速性的前提下,可以增加ORB-SLAM2算法定位精度,有效的缓解了图片帧跟踪易丢失问题,并且构建的八叉树地图可直接用于机器人的三维路径规划。  相似文献   

15.
双目立体视觉系统通过模拟人的双眼来获取三维世界的深度信息,该系统主要由摄像机标定、特征点提取、特征点匹配、三维坐标求取等4个模块组成.对于传统算法特征点提取速度与特征匹配不能满足实时性的要求,提出了基于ORB算法的双目视觉目标定位.该算法通过在Brief描述子上加入了旋转矩阵,使算法具备了旋转不变性以及有着很大的效率提升.实验结果表明,该算法特征点提取与匹配速度有着一个数量级以上的提高,大大增加了在双目视觉系统下的实时性.  相似文献   

16.
本文针对ORB-SLAM2算法在黑暗环境或纹理较少的环境下提取特征点少,从而导致SLAM系统定位精度不高、匹配对数较少,进而导致系统崩溃的问题,提出了一种基于自适应阈值的特征点提取算法与改进的四叉树均匀化策略。首先基于图像的亮度进行基于自适应阈值的FAST特征点提取,之后通过改进的四叉树均匀化策略对图像的特征点进行剔除与补偿,完成特征点选取。实验结果表明,与原算法相比,改进后的特征点提取算法在黑暗环境与纹理较少的环境下,匹配对的数量提升了17.6%,SLAM轨迹精度提升了49.8%,有效的提升了SLAM系统的鲁棒性和精度。  相似文献   

17.
为了解决SIFT算法在立体视觉中耗时长、误匹配度高以及提取的特征点扎堆的问题,提出一种基于四叉树的SIFT与K-D树融合的快速特征匹配算法.该方法采用一种结合了自适应阈值的快速特征点提取算法提取关键点,由于所提取的关键点具有扎堆现象,故提出一种四叉树结构并将其应用到图像匹配中.利用改进的K-D树与随机一致性算法进行关键点的粗匹配与提纯.实验证明,该改进算法的平均匹配速率相比SIFT算法提高了3.35倍,匹配正确率由86.18%提高到97.53%,同时该改进算法比SIFT算法在视角、模糊、光照以及尺度变化方面更具有优越性,所以该算法能够满足高匹配率、实时性好且特征点均匀化的要求.  相似文献   

18.
针对雾霾天气下道路交通标志识别难度大、精确度较低的问题,提出一种基于YOLOv5的雾霾天气交通标志识别模型。首先在YOLOv5原始模型上融入卷积注意力机制,在空间维度和通道维度上进行特征增强,抑制雾霾天气对模型的干扰;然后将BiFPN作为neck层中的特征融合结构,更加充分地融合多尺度特征,减少目标信息丢失;并选用CIoU作为YOLOv5的损失函数提高定位能力;使用K-means聚类算法在TT100K和CODA数据集重新获取锚框值,加快模型收敛速度。实验结果表明,改进后模型识别精度达到92.5%,比YOLOv5提升5.6%,在雾霾天气下仍能准确识别交通标志,速度达27 FPS,能够进行实时检测。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号