首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
《微型机与应用》2015,(17):70-74
以固高GRB-400机器人和摄像机组成手眼系统,在手眼关系旋转矩阵的标定方面,分析了基于主动视觉的标定方法。为实现手眼关系平移向量的标定,提出以固定于机械臂末端的激光笔来获取工件平台上特征点的基坐标,并结合已标定的旋转矩阵来标定平移向量。最后,从图像求取多个特征点之间的距离并与实际值进行误差比较,平面特征点间的长度测量误差在±0.8 mm之间,表明手眼标定精度较高,可满足机器人进行工件定位与自动抓取的要求。  相似文献   

2.
为解决现有基于主动视觉方法标定手眼矩阵和结构光平面操作较复杂的问题,提出一种基于主动视觉的同时标定手眼矩阵和光平面的方法。通过精确控制机器人做两次相互正交的平移运动,求解手眼矩阵的旋转部分;而后通过两次及以上带旋转运动,求解手眼矩阵的平移部分和光平面方程。该方法简单,无需使用特定靶标,标定过程只需3个特征点,即可实现机器人手眼矩阵和光平面方程的标定;实验结果证明了该方法的有效性。  相似文献   

3.
为实现结构光视觉引导的焊接机器人系统的标定,解决现有标定方法复杂,标定靶标制作要求高等缺点,提出一种基于主动视觉的自标定方法。该标定方法对场景中3个特征点取像,通过精确控制焊接机器人进行5次平移运动,标定摄像机内参数和手眼矩阵旋转部分;通过进行2次带旋转运动,结合激光条在特征点平面的参数方程,标定手眼矩阵平移部分和结构光平面在摄像机坐标系下的平面方程;并针对不同焊枪长度进行修正。在以Denso机器人为主体构建的结构光视觉引导的焊接机器人系统上的测试结果稳定,定位精度可达到±0.93 mm。该标定方法简单,特征选取容易,对焊接机器人系统在实际工业现场的使用有重要意义。  相似文献   

4.
《微型机与应用》2018,(1):97-100
通过视觉引导机器人完成抓取任务,机器人手眼标定的精度直接影响了抓取任务作业精度和抓取成功率。对于基于位置的机器人视觉引导系统,手眼标定的任务则是确定机器人坐标系与相机坐标系之间的位姿关系。通过HALCON平台,使用线性标定法实现了6DOF机器人的手眼标定。对手眼标定的结果进行反演,直观地展示了手眼标定的精确程度。最后通过采集多组不同数量的图片,在HALCON平台下验证了不同摄像机模型对手眼标定的精度影响,以及同种摄像机模型在不同数量图片的情况下手眼标定的标定精度。实验证明,根据位姿矩阵中待求解的未知量个数采集合适数量的图片和使用更精确的摄像机模型能够提高手眼标定的精度。  相似文献   

5.
机器人手位姿数据对手眼标定精度的影响不可忽略,将对基于手眼标定方程AX=XB的精度影响因素进行分析.通过手眼标定仿真和实测实验验证上述两个因素对手眼标定精度的影响与理论分析的一致性.通过仿真与实测实验,总结得出了减小摄像机与靶标间距离、减小机器人手的运动前后到基坐标空间距离的相差距离,可提高手眼标定精度,通过四元数法和矩阵直积法验证了此规律在解AX=XB标定方程时的通用性,并且在摄像机与靶标间距约为230 mm以及机器人手的运动前后到基坐标空间距离的相差距离为3.2401 mm时,手眼标定平移向量相对误差最高精度可达0.0403%.  相似文献   

6.
为了实现单目视觉系统的快速、精确的手眼标定,本文提出了一种新的两步式手眼标定方法,将手眼标定分为求解旋转关系和平移关系两步.首先机器人携带标定板进行两次平移运动求解旋转关系,然后机器人工具坐标系执行若干次旋转运动求解平移关系.该方法简单快速,不需要昂贵的外部设备,通过实验最终验证了该方法的可行性.  相似文献   

7.
《机器人》2015,(3)
欠驱动机器人因难以像全主动关节机器人一样形成多种空间位姿,故无法直接使用经典的手眼标定方法.为解决这一问题,本文建立了其数学模型,并提出了一种基于平面约束的手眼标定方法.在该方法中,末端执行器的运动被约束于3维空间内的已知平面上,手眼标定的姿态矩阵和平移向量分别通过纯平移与纯旋转运动模式,结合对应的标定图像进行解耦求解.蒙特卡洛仿真实验结果表明,该标定算法有效、准确,且对噪声具有较好的鲁棒性.在所开发的欠驱动爬壁机器人上进行的实际试验中,定位误差被控制在1.5 mm以内.结果表明该标定方法简便易行,精度满足要求.  相似文献   

8.
三维视觉测量系统标定技术   总被引:1,自引:0,他引:1  
在机器人视觉测量系统中,手眼标定问题一直是一个很重要也很难解决的问题.结合一个具体的实际系统,提出了一种将摄像机外参数矩阵和手眼矩阵合在一起标定的新方法,免去了传统的摄像机外参数标定和手眼标定的麻烦,并因此减小了误差,提高了测量精度.  相似文献   

9.
《传感器与微系统》2019,(12):133-135
为简化手眼标定算法的同时保证标定结果的准确性,提出一种基于四元数的机器人手眼标定算法。首先基于四元数改写手眼标定方程的形式,用奇异值分解方法(SVD)求解手眼关系的旋转部分,再将旋转部分代入手眼标定方程求解手眼关系的平移部分。通过数值仿真和机器人标定实验,将新算法和基于矩阵直积的手眼标定算法进行比较。结果表明:所提算法的稳定性和准确性均优于矩阵直积标定算法。  相似文献   

10.
精确的机器人手眼标定对于机器人的视觉环境感知具有重要的意义。现有算法通常采用最小二乘估计或全局非线性优化求解方法对机器人手眼系统的变换参数进行估计。当系统存在测量粗差时直接采用最小二乘估计会导致标定结果精度的下降;基于全局非线性优化策略的标定算法则由于数据粗差的影响,求解过程易过早收敛也会造成标定精度低。为了解决误差粗差敏感的问题,提出了一种基于误差分布估计的加权最小二乘鲁棒估计方法,以提高机器人手眼标定的精度。首先,通过最小二乘估计计算手眼变换矩阵;之后计算每对坐标对应的误差值;根据误差值的分布概率初始化对应坐标数据的权值;最后采用加权的最小二乘估计重新计算机器人手眼标定矩阵。最后引入迭代估计策略进一步提高手眼标定的精度。设计的机器人手眼标定实验及结果证明,所提算法能够在数据粗差影响下保持较高的标定精度,更适用于机器人的手眼标定问题。  相似文献   

11.
高金锋  梁冬泰  陈叶凯 《机器人》2022,44(3):321-332
在搭载线激光轮廓传感器的机器人平台手眼标定问题中,依靠线激光轮廓传感器输出的2维点云信息进行标定,存在标定过程复杂、标定精度低的缺点。本文针对这些问题,提出一种基于圆柱侧面约束的手眼标定方法。通过改变扫描机器人末端位姿,获得不同位姿下圆柱侧面扫描数据。对于激光平面与圆柱侧面相交得到的椭圆轮廓,利用随机抽样一致性(RANSAC)算法得到椭圆轮廓中心点坐标。利用椭圆轮廓的估计中心点到圆柱中轴线的距离建立约束优化方程,将手眼标定问题转化为约束优化问题。利用粒子群优化(PSO)算法和广义拉格朗日乘子法的融合算法求解约束优化问题,得到手眼标定的变换矩阵。最后基于所提方法进行模拟仿真和扫描重建试验。分别讨论了标定数据误差、标定参照物位置和标定参数初始值对标定结果的影响,并验证了手眼标定精度。结果表明,该方法不受标定参照物位置和标定参数初始值的影响,具有操作简单、通用性强、标定精度高等特点,标定精度在0.15mm以内,适合现场标定。  相似文献   

12.
李巍  吕乃光  董明利  娄小平 《机器人》2018,40(3):301-308
针对相机姿态估计及机器人运动学正解存在测算偏差时,手眼标定及机器人坐标系-世界坐标系标定结果不能准确收敛到全局最优解的问题,提出了一种基于对偶四元数理论的机器人方位与手眼关系同时标定方法.该方法首先将标定方程中坐标系刚体变换关系用螺旋轴、旋转角度和平移量参数化表示,再结合全局优化算法对平移量进行优化.搭建了PUMA560机器人数值仿真系统和工业机器人实测实验平台,将该方法与经典的四元数和对偶四元数标定方法进行了比较分析.仿真和实测结果表明,在相机姿态估计及机器人运动学正解存在测量误差的情况下,该方法无需初值估计和数据筛选依然可以保证求解结果的最优性.  相似文献   

13.
Multi-camera vision is widely used for guiding the machining robot to remove flash and burrs on complex automotive castings and forgings with arbitrary initial posture. Aiming at the problems of insufficient field of vision and regional occlusion in actual machining, a gradient-weighted multi-view calibration method (GWM-View) is proposed for the machining robot positioning based on the convergent binocular vision. Specifically, the mapping between each auxiliary camera and the main camera in the multi-view system is calculated by the inverse equation and intrinsic parameter matrix. Then, the gradient-weighted suppression algorithm is introduced to filter out the errors caused by camera angle variation. Next, the spatial coordinates of the feature points after suppression are used to correct the transformation matrix. Finally, the hand-eye calibration algorithm is implemented to transform the corrected data into the robot base coordinate system for the accurate positioning of the robot under multiple views. The experiment on the automotive engine flywheel shell indicates that the average positioning error is controlled within 1 mm under different postures. The stability and robustness of the proposed method are further improved while the positioning accuracy of the machining robot meets the requirements.  相似文献   

14.
针对线结构光传感器引导的机器人系统的手眼标定问题,提出了一种以M型标准块为标定物的方法。该M型标定物的两条平行的脊线作为约束,基于两条平行脊线的约束建立包含手眼关系、机器人运动学以及两条直线位姿参数误差的模型。首先基于定点约束求解手眼关系初值并以此为基础解算出直线位姿参数的初值,然后通过最小二乘法解算误差参数并补偿到模型中,不断迭代直至计算的误差参数小于阈值,最终得到最终的机器人手眼关系及运动学误差参数。为了验证标定方法的有效性,以某精加工平面为被测物,利用线结构光机器人系统对平面进行测量,得到平面点云;拟合最小二乘平面,计算点到平面距离的均方根值作为评价依据。分别对所述M型标准块和标准球两种方法进行了实验对比,结果表明,相较于标准球方法,所述M型标准块方法得到的均方根误差由0.152 mm减少到0.080 mm,均方根误差的标准差由0.043 mm减少到0.005 mm,其标定结果的精度及稳定性得到显著提高。  相似文献   

15.
钟宇  张静  张华  肖贤鹏 《计算机工程》2022,48(3):100-106
智能协作机器人依赖视觉系统感知未知环境中的动态工作空间定位目标,实现机械臂对目标对象的自主抓取回收作业。RGB-D相机可采集场景中的彩色图和深度图,获取视野内任意目标三维点云,辅助智能协作机器人感知周围环境。为获取抓取机器人与RGB-D相机坐标系之间的转换关系,提出基于yolov3目标检测神经网络的机器人手眼标定方法。将3D打印球作为标靶球夹持在机械手末端,使用改进的yolov3目标检测神经网络实时定位标定球的球心,计算机械手末端中心在相机坐标系下的3D位置,同时运用奇异值分解方法求解机器人与相机坐标系转换矩阵的最小二乘解。在6自由度UR5机械臂和Intel RealSense D415深度相机上的实验结果表明,该标定方法无需辅助设备,转换后的空间点位置误差在2 mm以内,能较好满足一般视觉伺服智能机器人的抓取作业要求。  相似文献   

16.
In the robotic eye-in-hand measurement system, a hand-eye calibration method is essential. From the perspective of 3D reconstruction, this paper first analyzes the influence of the line laser sensor hand-eye calibration error on the 3D reconstructed point clouds error. Based on this, considering the influence of line laser sensor measurement errors and the need for high efficiency and convenience in robotic manufacturing systems, this paper proposes a 3D reconstruction-based robot line laser hand-eye calibration method. In this method, combined with the point cloud registration technique, the newly defined error-index more intuitively reflects the calibration result than traditional methods. To raise the performance of the calibration algorithm, a Particle Swarm Optimization - Gaussian Process (PSO-GP) method is adopted to improve the efficiency of the calibration. The experiments show that the Root Mean Square Error (RMSE) of the reconstructed point cloud can reach 0.1256 mm when using the proposed method, and the reprojection error is superior to those using traditional hand-eye calibration methods.  相似文献   

17.
A measurement technique for kinematic calibration of robot manipulators, which uses a stereo hand-eye system with moving camera coordinates, is presented in this article. The calibration system consists of a pair of cameras rigidly mounted on the robot end-effector, a camera calibration board, and a robot calibration fixture. The stereo cameras are precalibrated using the camera calibration board so that the 3D coordinates of any object point seen by the stereo cameras can be computed with respect to the camera coordinate frame [C] defined by the calibration board. Because [C] is fixed with respect to the tool frame [T] of the robot, it moves with the robot hand from one calibration measurement configuration to another. On each face of the robot calibration fixture that defines the world coordinate frame [W], there are evenly spaced dot patterns of uniform shape. Each pattern defines a coordinate frame [Ei], whose pose is known in [W]. The dot pattern is designed in such a way that from a pair of images of the pattern, the pose of [Ei] can be estimated with respect to [C] in each robot calibration measurement. By that means the pose of [C] becomes known in [W] at each robot measurement configuration. For a sufficient number of measurement configurations, the homogeneous transformation from [W] to [C] (or equivalently to [T]), and thus the link parameters of the robot, can be identified using the least-squares techniques. Because the cameras perform local measurements only, the field-of-view of the camera system can be as small as 50 × 50 mm2, resulting in an overall accuracy of the measurement system as high as 0.05 mm. This is at least 20 times better than the accuracy provided by vision-based measurement systems with a fixed camera coordinate frame using common off-the-shelf cameras. © 1994 John Wiley & Sons, Inc.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号