首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
简便高精度的机器人手眼视觉标定方法   总被引:3,自引:0,他引:3  
对摄像机成像模型进行了分析,论述了机器人手眼系统标定原理。在此基础上,不改变机器人的外臂与基坐标系的旋转关系,设计了一种机器人手眼视觉的标定方法,与传统的方法比较,它不需要预先标定摄像机的内外参数。实验证明:该方法具有算法方便快捷、实验过程简单易行,且精度高等优点,可用于机器人进行运动目标定位与跟踪。  相似文献   

2.
为解决现有基于主动视觉方法标定手眼矩阵和结构光平面操作较复杂的问题,提出一种基于主动视觉的同时标定手眼矩阵和光平面的方法。通过精确控制机器人做两次相互正交的平移运动,求解手眼矩阵的旋转部分;而后通过两次及以上带旋转运动,求解手眼矩阵的平移部分和光平面方程。该方法简单,无需使用特定靶标,标定过程只需3个特征点,即可实现机器人手眼矩阵和光平面方程的标定;实验结果证明了该方法的有效性。  相似文献   

3.
基于手眼立体视觉的机器人定位系统   总被引:1,自引:0,他引:1  
陈锡爱  徐方 《计算机应用》2005,25(Z1):302-304
研发了基于手眼的机器人定位系统,采用了眼在手上的单目摄像机,通过机械手的一次移动实现了立体视觉的功能.提出了一种方便有效手眼标定方法,避免了复杂的传统手眼标定过程,无需求解摄像机外参数和手眼变换矩阵.仅获取标定时刻的摄像机综合参数和机器人位姿,就可以在机器人基坐标系中视场范围内的任意两点进行检测,根据立体视觉的约束关系求解出目标物体在机器人基坐标中的位置,进而实现对目标物体的精确定位.  相似文献   

4.
陈宝存  吴巍  郭毓  郭健 《计算机仿真》2020,37(2):343-348
为了缩短标定的时间,设计了一种基于ROS的机器人自动手眼标定系统。通过分析坐标系间的转换关系,建立了手眼标定的数学模型,推导了两步法的具体解法。为了尽可能减小标定误差,提出了带约束的随机增量法,并根据角点检测结果实时剔除标定过程中出现的无效图像。基于ROS软件平台完成了驱动、运动空间规划、图像处理和标定解算等功能模块的逻辑设计和系统级联。以6自由度工业机械臂UR3和RGB-D相机Kinect2构建了手眼标定实验系统,实验结果表明,与传统标定流程相比,所设计的自动手眼标定系统便捷高效且精度高,具有较强的拓展性。  相似文献   

5.
为了实现单目视觉系统的快速、精确的手眼标定,本文提出了一种新的两步式手眼标定方法,将手眼标定分为求解旋转关系和平移关系两步.首先机器人携带标定板进行两次平移运动求解旋转关系,然后机器人工具坐标系执行若干次旋转运动求解平移关系.该方法简单快速,不需要昂贵的外部设备,通过实验最终验证了该方法的可行性.  相似文献   

6.
机器人手眼立体视觉标定研究   总被引:1,自引:0,他引:1  
以固高GRB-400型机器人和CCD组成机器人手眼系统,分析了摄像机的成像模型,采用了基于直接将图像坐标映射到机器人参考坐标的“黑箱”思想,从图像坐标直接计算出目标位置的方法,用于立体定位的摄像机手眼标定,该方法通过保持机器人末端执行器到机器人参考坐标系旋转矩阵来简化复杂的相机标定过程,最后通过实验验证了该方法的可行性,并分析了实验误差产生的原因,并提出了相应的解决措施。  相似文献   

7.
基于立体视觉的机器人手眼无标定三维视觉跟踪   总被引:5,自引:0,他引:5  
潘且鲁  苏剑波  席裕庚 《机器人》2000,22(4):293-299
本文在未标定手眼关系及摄像机模型的情况下,建立了机器人立体视觉跟踪问题非线性视觉 映射关系模型,并据此设计了基于人工神经网络的视觉跟踪控制器.仿真结果表明该算法能 完全消除稳态跟踪误差,具有很强的环境适应性和容错能力,算法简单,易于实时实现.  相似文献   

8.
基于神经网络的机器人手眼无标定平面视觉跟踪   总被引:11,自引:2,他引:11  
在手眼关系及摄像机模型完全未知的情况下,建立了眼在手上机器人平面视觉跟踪问题的非线性视觉映射模型,将图像特征空间和机器人工作空间紧密地联系起来.在此基础上,设计了基于人工神经网络的视觉跟踪控制方案,将视觉跟踪问题转化为图像特征空间中的定位问题.仿真结果表明该算法能完全消除稳态跟踪误差,具有很强的环境适应性和容错能力,算法简单,易于实时实现.  相似文献   

9.
深入研究了机器人手眼视觉系统的立体定位问题。首先,重新将手眼问题公式化,得到一个新的系统模型;然后,在此基础上提出了一种实用有效的标定方法。其核心思想是直接将图像坐标映射到机器人基坐标系中,把系统参数作为一个整体来获取,而不必分别计算摄像机内部的每一个参数。与原方法相比,本方法可随意改变末端姿态定位,即定位时摄像机对目标取像的姿态不受任何约束。实验表明,该方法操作方便、实现简单、定位精度高。这一方法的提出克服了原方法的局限性,大大推广了手眼视觉系统的应用范围。  相似文献   

10.
眼在手上机器人手眼无标定三维视觉跟踪   总被引:9,自引:1,他引:8  
在未标定手眼关系及摄像机模型的情况下,建立了机器人三维视觉跟踪问题非线性视觉映射关系模型,并据此设计了基于人工神经网络的视觉跟踪控制器.仿真结果表明该算法能完全消除稳态跟踪误差,具有很强的环境适应性和容错能力,算法简单,易于实时实现.  相似文献   

11.
便携式测量臂和激光扫描测头手眼关系的确定是便携式激光扫描测量臂系统中的关键问题。针对测量臂末端相对运动旋转轴之间的夹角和测量臂与扫描测头相对运动的旋转角差值这两个影响手眼标定精度的因素,设定激光扫描测量臂标定数据筛选原则,提出一种基于随机采样一致性的自适应阈值手眼标定算法。蒙特卡洛仿真实验和激光扫描测量臂实测实验结果表明,提出的算法对四元数方法求解的相对旋转轴和平移向量误差标准差精度分别提高了2.42%,4.14%,可以满足便携式激光扫描测量臂系统的测量精度要求。  相似文献   

12.
In the robotic eye-in-hand measurement system, a hand-eye calibration method is essential. From the perspective of 3D reconstruction, this paper first analyzes the influence of the line laser sensor hand-eye calibration error on the 3D reconstructed point clouds error. Based on this, considering the influence of line laser sensor measurement errors and the need for high efficiency and convenience in robotic manufacturing systems, this paper proposes a 3D reconstruction-based robot line laser hand-eye calibration method. In this method, combined with the point cloud registration technique, the newly defined error-index more intuitively reflects the calibration result than traditional methods. To raise the performance of the calibration algorithm, a Particle Swarm Optimization - Gaussian Process (PSO-GP) method is adopted to improve the efficiency of the calibration. The experiments show that the Root Mean Square Error (RMSE) of the reconstructed point cloud can reach 0.1256 mm when using the proposed method, and the reprojection error is superior to those using traditional hand-eye calibration methods.  相似文献   

13.
针对线结构光传感器引导的机器人系统的手眼标定问题,提出了一种以M型标准块为标定物的方法。该M型标定物的两条平行的脊线作为约束,基于两条平行脊线的约束建立包含手眼关系、机器人运动学以及两条直线位姿参数误差的模型。首先基于定点约束求解手眼关系初值并以此为基础解算出直线位姿参数的初值,然后通过最小二乘法解算误差参数并补偿到模型中,不断迭代直至计算的误差参数小于阈值,最终得到最终的机器人手眼关系及运动学误差参数。为了验证标定方法的有效性,以某精加工平面为被测物,利用线结构光机器人系统对平面进行测量,得到平面点云;拟合最小二乘平面,计算点到平面距离的均方根值作为评价依据。分别对所述M型标准块和标准球两种方法进行了实验对比,结果表明,相较于标准球方法,所述M型标准块方法得到的均方根误差由0.152 mm减少到0.080 mm,均方根误差的标准差由0.043 mm减少到0.005 mm,其标定结果的精度及稳定性得到显著提高。  相似文献   

14.
When a vision sensor is used in conjunction with a robot, hand-eye calibration is necessary to determine the accurate position of the sensor relative to the robot. This is necessary to allow data from the vision sensor to be defined in the robot's global coordinate system. For 2D laser line sensors hand-eye calibration is a challenging process because they only collect data in two dimensions. This leads to the use of complex calibration artefacts and requires multiple measurements be collected, using a range of robot positions. This paper presents a simple and robust hand-eye calibration strategy that requires minimal user interaction and makes use of a single planar calibration artefact. A significant benefit of the strategy is that it uses a low-cost, simple and easily manufactured artefact; however, the lower complexity can lead to lower variation in calibration data. In order to achieve a robust hand-eye calibration using this artefact, the impact of robot positioning strategies is considered to maintain variation. A theoretical basis for the necessary sources of input variation is defined by a mathematical analysis of the system of equations for the calibration process. From this, a novel strategy is specified to maximize data variation by using a circular array of target scan lines to define a full set of required robot positions. A simulation approach is used to further investigate and optimise the impact of robot position on the calibration process, and the resulting optimal robot positions are then experimentally validated for a real robot mounted laser line sensor. Using the proposed optimum method, a semi-automatic calibration process, which requires only four manually scanned lines, is defined and experimentally demonstrated.  相似文献   

15.
《微型机与应用》2018,(1):97-100
通过视觉引导机器人完成抓取任务,机器人手眼标定的精度直接影响了抓取任务作业精度和抓取成功率。对于基于位置的机器人视觉引导系统,手眼标定的任务则是确定机器人坐标系与相机坐标系之间的位姿关系。通过HALCON平台,使用线性标定法实现了6DOF机器人的手眼标定。对手眼标定的结果进行反演,直观地展示了手眼标定的精确程度。最后通过采集多组不同数量的图片,在HALCON平台下验证了不同摄像机模型对手眼标定的精度影响,以及同种摄像机模型在不同数量图片的情况下手眼标定的标定精度。实验证明,根据位姿矩阵中待求解的未知量个数采集合适数量的图片和使用更精确的摄像机模型能够提高手眼标定的精度。  相似文献   

16.
17.
机器人手位姿数据对手眼标定精度的影响不可忽略,将对基于手眼标定方程AX=XB的精度影响因素进行分析.通过手眼标定仿真和实测实验验证上述两个因素对手眼标定精度的影响与理论分析的一致性.通过仿真与实测实验,总结得出了减小摄像机与靶标间距离、减小机器人手的运动前后到基坐标空间距离的相差距离,可提高手眼标定精度,通过四元数法和矩阵直积法验证了此规律在解AX=XB标定方程时的通用性,并且在摄像机与靶标间距约为230 mm以及机器人手的运动前后到基坐标空间距离的相差距离为3.2401 mm时,手眼标定平移向量相对误差最高精度可达0.0403%.  相似文献   

18.
This paper presents new and simple solutions to the important problem of robotic hand-eye coordination. Although this problem can be easily solved with precisely calibrated 3D vision system, one question still remains, that is: can this problem be solved with 2D information contained in images without doing any metric measurement with a 3D vision system? Here, we present two new feasible solutions which are both simple (in the sense that a constant mapping matrix is being generated) and practical (in the sense that it works with both simulation and real system).  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号