首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 717 毫秒
1.
针对目前大部分以工业机器人为核心的自动化生产线用工件固定方式进行加工作业,严重制约工业机器人在自动化生产线中的应用范围.为此提出一种基于双视觉引导的工业机器人立体定位技术.通过双视觉系统各自识别工装参考目标点的三维坐标和角度姿态,建立在相机坐标系下的三维坐标.利用多参考孔位采用最小二乘法拟合最优解,通过双目视觉的标定参数和定位换算算法,计算出目标点在工业机器人工件坐标系下的立体位置和姿态,引导工业机器人对工件的精确立体定位,最终实现机器人的各种加工作业.结果表明,双机器视觉能够精确引导机器人实现立体定位功能,误差小于0.5 mm,满足工业生产的一般性需求且具有良好的通用性.  相似文献   

2.
可自纠位的直线行走是足球机器人守门员的重要功能,为实现此功能,通常的做法是通过视觉同时识别多个目标实现机器人自身的全局定位,从而确定机器人自身的方位角。本文在RoboCup中型组足球机器人开发平台上,应用数字罗盘获取机器人的航向角,融合机器人的视觉信息,在识别一个参考路标的情况下实现足球机器人守门员的全局定位。根据机器人的全局位姿坐标可以实现守门员在门前球门区域的直线挡球功能,实验结果证明方法是可行的。  相似文献   

3.
针对机器视觉领域中并联机器人存在目标识别模糊,分类效率差以及反应速度过慢的问题,提出了一种基于深度学习的并联机器人定位检测技术。首先对目标识别物进行图像采集,改进图像数据集,将处理前后图像放入训练集提高网络效率,搭建YOLOX目标检测分类识别算法提高并联机器人检测精度;其次改进训练方式,通过预训练与实际训练提高可靠性,改进损失策略;然后建立并联机器人主体基坐标系与相机坐标系,结合手眼标定与相机标定方法,求得目标实际坐标与机器人基坐标系的转换关系;最后在并联机器人实验平台验证目标标定结果,对比主流深度学习算法YOLOv3、YOLOv4、Faster-RCNN得出的并联机构网络定位与实际定位的相对误差,结果表明YOLOX的定位精度误差为3.992-5.061mm之间,平均精确度达到了91%左右。该方法可为并联机器人结合深度学习实现检测定位提供一定参考价值。  相似文献   

4.
变电站中主要使用隔离断路器来隔离电压,使待检修设备与带电部分隔离形成安全的操作空间;而目前主要的检修作业方式为人工带电操作,费时费力且具有极高的安全隐患。基于此,文中提出了一种隔离断路器金具自动化解接机器人视觉引导定位方法。该方法由像机实时采集图像数据,利用深度学习目标检测算法进行金具粗定位;并在粗定位的基础上使用图像分割技术精确拟合作业点位置;通过精确的图像坐标点、工具坐标系、机器人本体之间的坐标关系,计算作业点在机器人坐标系下的坐标位置,并控制机械手运动。实验表明,算法具有精度高、稳定性好、速度快等优点。  相似文献   

5.
为了改进电力作业现场复杂环境下机器人定位精度,提出了一种自主导航与视觉辅助定位融合方法。在激光传感器即时定位与地图构建的基础上,基于视觉图像处理,对机器人位置进行校准,使其能够准确停靠在任务位置。应用结果表明,所提方法能够有效提高机器人定位精度,定位误差小于1 cm。  相似文献   

6.
智能服务机器人之所以能够在所处场景环境从任意位置开始,并能够实现自主移动、自主路径规划和规避障碍物功能,离不开其自身的自主定位与导航能力。本文以送餐等配送类智能服务机器人为研究对象,研究该类移动服务机器人的典型运动学模型、自主定位与导航技术,并重点分析研究其室内场景的自主定位与导航能力性能测试方法及计算模型,进而开发了服务机器人性能测试系统,实现对服务机器人自主定位和导航能力性能的测试,最后通过测试数据分析,验证了测试系统的实用性和有效性。本测试系统为服务机器人的定位与导航性能测试提供了解决方法和检测工具。  相似文献   

7.
针对三维视觉定位问题,提出了一种基于kalman滤波的机器人眼在手上视觉定位方法。利用图像的全局特征描述子-图像矩来提取目标的三维图像特征,在不标定摄像机和机器人坐标变换关系的情况下,采用kalman滤波估计算法对图像雅可比矩阵进行在线辨识,并建立图像特征反馈控制,使定位目标物体的图像坐标始终保持在图像平面的中心位置。利用MATLAB仿真软件建立了基于kalman滤波的机器人眼在手上视觉定位仿真模型,实现了机器人的三维视觉定位。实验研究表明,该方法可以使机器人到达目标位置,且定位精度较高。  相似文献   

8.
为了解决钢筋绑扎机器人对绑扎点识别准确率低,定位精度差的问题,提出一种基于深度学习的钢筋绑扎机器人目标识别与定位方法。首先采用YOLOv4算法对绑扎点目标框识别和裁剪,完成绑扎点初始定位;其次设计轮廓角点选取方法,利用角点计算绑扎点的图像坐标;之后通过融入CBAM注意力机制改进Monodepth算法的特征提取部分,解码部分引入路径增强PAN结构,以提高模型的特征提取能力,进一步提高立体匹配精度;最后通过双目立体视觉定位技术获得绑扎点深度信息,并由坐标变换求解钢筋绑扎机器人手眼坐标系映射关系,从而实现对绑扎点的精确识别和定位。实验结果表明:该方法针对绑扎点目标框的识别准确率达到了99.75%,每秒传输帧数达到54.65;在空间中的定位精度最大误差为11.6mm。可较好地识别定位绑扎点位置,为自动绑扎工作提供有力支持。  相似文献   

9.
融合异质传感信息的机器人粒子滤波定位方法   总被引:3,自引:0,他引:3  
针对机器人采用视觉传感器和激光测距传感器单独定位的缺陷,提出一种融合视觉传感器和激光测距传感器感知信息的移动机器人Monte Carlo自定位方法.视觉目标识别过程中,只采用激光测距信息单独进行粒子集更新; 当视觉目标识别完成,利用码盘信息对视觉定位信息进行修正,然后融合激光测距信息进行粒子集的同步更新.视觉信息的全局...  相似文献   

10.
目前,国内外对于智能变电站无人巡检系统中视觉系统的研究较多,但国内变电站巡检机器人的研发仍局限于人工识别图片。针对这一问题,以机器视觉为基础,建立了基于机器视觉技术的绝缘子识别定位系统,通过LabVIEW的Vision模块完成对绝缘子图像的特征提取,实现了对绝缘子的初步识别与定位。  相似文献   

11.
Graspirng objects is an important capability for humanoid robots. Due to complexity of environmental and diversity of objects, it is difficult for the robot to accurately recognize and grasp multiple objects. In response to this problem, we propose a robotic grasping method that uses the deep learning method You Only Look Once v3 for multi‐target detection and the auxiliary signs to obtain target location. The method can control the movement of the robot and plan the grasping trajectory based on visual feedback information. It is verified by experiments that this method can make the humanoid robot NAO grasp the object effectively, and the success rate of grasping can reach 80% in the experimental environment.  相似文献   

12.
In this paper, we present a new three-stage algorithm to calibrate roadside traffic management cameras and track vehicles to create a traffic speed sensor. The algorithm first estimates the camera position relative to the roadway using the motion and edges of the vehicles. Given the camera position, the algorithm then calibrates the camera by estimating the lane boundaries and the vanishing point of the lines along the roadway. The algorithm transforms the image coordinates from the vehicle tracker into real-world coordinates using our simplified camera model. We present results that demonstrate the ability of our algorithm to produce good estimates of the mean vehicle speed in a lane of traffic.  相似文献   

13.
随着人们对室内定位需求不断增加,具有良好通信功能以及定位性能的超宽带(UWB)技术在室内定位领域发挥着重要作用。针对UWB通信信号在室内复杂环境中容易受到干扰,造成定位误差的问题,本文建立K-means算法对采集数据进行聚类分析,剔除有信号干扰时产生的错误测距数值,并在经典Chan算法的基础上进行改进创建出Chan-IDW模型来确定靶点位置的实际坐标,再通过均方差误差(RMSE)来衡量出该定位模型的精度。实验结果计算出在信号干扰下定位的靶点二维坐标平均误差为5.67 cm,三维坐标平均误差为11.34 cm,误差均在厘米级别,表明该模型求解靶点坐标与其真实坐标非常接近。因此得出结论,Chan-IDW模型可有效解决室内信号干扰下的UWB精确定位问题。  相似文献   

14.
影像测量仪在工业测量等领域中,尤其是精密平面类零件的高精度测量方面具有广泛的应用。当测量满台零件时,传统影像测量仪需人工手动控制平台移动达到测量位置,导致测量时间延长、效率低。以通用的影像测量仪为实验平台,采用双目视觉系统进行测量,通过大视野相机将特征物从平台任意位置移动到小视野相机视野范围内,并利用小视野进行位置矫正,以达到精确定位。实验结果表明,该方法能有效地将大视野范围内任一特征点精确移动到小视野图像中心。最后,提出一种影像测量仪薄板类零件自动定位方法,实验证明该方法能有效降低测量时长,特征点粗定位误差在±0.05 mm以内。  相似文献   

15.
针对里程计进行列车定位时存在的累积误差,通过列车前方安装的姿态固定的高速相机获取轨道图像,根据直线区段左右钢轨轨距为常数的特征,提出了一种利用图像处理进行轨道特征识别和定位的累积误差校正方法。针对一般的图像处理方法计算量大的弊端,提出了利用轨道灰度投影提取轨道特征生成候选轨道集合,利用Hough变换快速验证轨道真实性的方法。对于提取的轨道特征,提出了基于轨距常数的特征点真实位置计算方法。实验证明该方法能够快速有效地提取轨道特征,定位精度能够达到0.25 m以内,适用于里程计累积误差的校正。  相似文献   

16.
钕铁硼永磁无刷直流电动机的磁场分析   总被引:2,自引:0,他引:2  
林德芳 《微电机》1993,26(4):3-8
永磁无刷直流电动机磁场分布的定量确定对电机性能的预测极为重要。文中通过电磁场理论分析精确预测电机各部分磁场分布和气隙磁通密度波形,并研究了磁体化方向,极对数,极弧系数和气隙长度对磁场和气隙磁通密度分布的影响,进行了有限元分析结果与实测值的比较,计算和试验值较吻合  相似文献   

17.
Although several studies have considered the problem of humanoid robots pushing carts, only a few have focused on the problem of robots moving heavy objects under monocular vision. This study proposes a target recognition and positioning method and a control method for a robot pushing a loaded trolley. A control system based on the humanoid robot NAO is developed and a monocular visual ranging method with segmented fitting is proposed to realize hardware control and target search and positioning for NAO. The ability of NAO to push a small cart with various weights using visual positioning is tested. The experimental results show that the average error of the monocular distance measurement method is 1.7 mm and that the target search and positioning is accurate. NAO can push a loaded cart that is 6.5 times its own weight.  相似文献   

18.
彭虎  陈灯 《电子测量技术》2023,46(5):142-148
工业机器人异常姿态检测是保障工业机器人安全作业的重要手段。针对已有方法存在检测准确率低和时效性不足的问题,提出了一种基于Kinect相机的六轴工业机器人异常姿态检测方法。该方法使用Kinect相机采集工业机器人彩色图像和深度图像,通过YOLOF目标检测算法得到彩色图像中工业机器人关节轴的信息,结合深度图像转换为对应三维坐标,参考工业机器人结构特性,构造机器人关节向量,提取角度特征,进行工业机器人姿态特征表示,基于欧式距离和余弦相似度进行姿态匹配,检测工业机器人异常姿态。本文的方法结合了工业机器人关节轴三维信息可对姿态进行更加精确的匹配。构建了六轴工业机器人作业视频数据集并进行了异常姿态检测。实验结果表明,本文的工业机器人异常姿态检测方法准确率为96.6%,单帧图像检测时间为43 ms,满足机器人安全监控实际应用需求。  相似文献   

19.
双目立体视觉系统通过模拟人的双眼来获取三维世界的深度信息,该系统主要由摄像机标定、特征点提取、特征点匹配、三维坐标求取等4个模块组成.对于传统算法特征点提取速度与特征匹配不能满足实时性的要求,提出了基于ORB算法的双目视觉目标定位.该算法通过在Brief描述子上加入了旋转矩阵,使算法具备了旋转不变性以及有着很大的效率提升.实验结果表明,该算法特征点提取与匹配速度有着一个数量级以上的提高,大大增加了在双目视觉系统下的实时性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号