首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
工业机器人单目视觉对准技术研究   总被引:1,自引:0,他引:1  
针对工业机器人精确对准问题,提出了一种基于单目视觉的工业机器人对准技术。该技术把工业机器人与单目视觉测量技术相结合,根据特制的手眼标定板,快速建立单目视觉测量系统与机器人上对准轴之间的手眼关系和对准的基准位姿;在对准环节,通过单目视觉系统获取工件目标的姿态,然后根据已有的手眼关系和基准位姿,求解在机器人基坐标系下机器人末端的对准轴的位置调整量,迭代调整机器人末端位姿,从而实现了机械人末端的对准轴与工件目标的精确对准。实验结果表明:在测量距离约是150mm处,对准平均精度优于0.2°。  相似文献   

2.
一种基于位姿反馈的工业机器人定位补偿方法   总被引:1,自引:0,他引:1  
为了提高工业机器人的绝对定位精度,提出了一种基于末端位姿闭环反馈的机器人精度补偿方法。该方法通过激光跟踪仪测量实时跟踪机器人末端靶标点的位置来监测机器人末端的位姿,并通过对靶标点的实际位置和理论位置进行匹配获得机器人末端的位姿偏差。工业机器人系统与激光跟踪测量系统通过局域网进行数据通信,并根据位姿偏差数据对机器人末端的位姿进行修正。最后通过实验对基于末端位姿闭环反馈的机器人精度补偿方法进行验证,实验表明,经过位姿闭环反馈补偿后机器人末端位置误差最大幅度可以降低到0.05mm,姿态误差最大幅度可以降低到0.012°。  相似文献   

3.
位姿精度是评价机器人性能好坏的一个重要指标,建立有效的补偿算法是提高机器人位姿精度的重要保证。 本文以 一种 2TPR&2TPS 并联机器人为研究对象,建立了基于正解的误差模型,根据该误差模型得出了动、静平台位置参数误差及 驱动杆零点长度误差与机器人末端位姿误差的关系,同时建立了基于逆解的补偿算法。 通过粒子群算法对误差函数的最小 值寻优,得到了机器人驱动杆补偿量和位姿补偿量,仿真得出该机器人的平均位置精度提升了 98. 148% ;将驱动杆补偿量与 理想位姿对应的驱动杆长叠加作为机器人的驱动杆输入量进行实验验证,实验得出机器人的平均位置精度提升了 87. 457% ,补偿效果显著。  相似文献   

4.
针对Stewart平台式的6-THRT型并联机构的研究,提出了一种中心轴测量模型。采用一般工业机器人位姿误差分析法,建立并联机构的误差模型,并结合单杆固定法来获取末端位姿信息,该模型包含了杆的制造、安装及铰链的位置安装等几何参数误差。通过Matlab软件进行仿真运算,分析了影响末端位姿的主要误差源。该研究为并联机器人的误差补偿提供了一定的理论依据。  相似文献   

5.
针对传统的相机内参矩阵和相机位置参数标定方法较为繁琐复杂且与相机内参标定互相割裂的痛点,本文设计了一种基于机器人的对接位姿视觉测量系统标定方法,利用采集得到的不同位姿关系下标定板图像以及对应的末端机器人末端执行器位姿数据,解算视觉位姿测量过程中涉及到的不同坐标系间位姿转换关系,一次性完成相机内参标定和相机位置参数标定....  相似文献   

6.
提出一种改进的柔性视觉测量系统标定方法。建立了包含手眼关系误差与机器人运动学参数误差的系统误差模型。在机器人末端安装结构光传感器构建了机器人柔性视觉测量系统,并在机器人工作空间中固定一个标准球作为标定参考物。标定时,机器人被控制在不同位姿下测量球心坐标。首先,应用机器人的理论模型初步标定手眼关系;然后,基于球心约束,通过迭代算法同时得到准确的手眼关系和实际的机器人运动学参数。基于ABB IRB2400工业机器人进行了系统标定实验,并利用激光跟踪仪进行精度验证。结果表明:标定前后机器人柔性视觉测量系统的距离测量标准差由0.566mm降低到0.173mm,充分验证了改进方法的有效性和实用性。该方法提高了手眼关系的精度;不需要采用任何昂贵的外部设备,适合工业现场使用。  相似文献   

7.
针对机械零件搬运过程中需要精确测量零件位姿的实际问题,基于VS220双目立体视觉测量系统平台,设计了一种机械零件位姿检测系统。采用改进的Canny边缘检测算法,对零件边缘进行了轮廓识别,利用尺度不变特征转换方法进行了零件特征点的提取与立体匹配;利用立体视觉三维重建方法,建立了位姿检测系统数学模型,通过求解坐标系之间的转换关系,计算出了零件在传送带上放置的位置和方向等信息;通过VC++语言编写了位姿识别算法程序,实现了零件形状与位姿的识别;搭建了位姿测试系统实验平台,进行了测试实验。实验结果表明:系统能快速有效地对零件进行位姿检测,为实现零件的自动上下料提供了技术支撑。  相似文献   

8.
工业机器人在智能制造领域具有举足轻重的地位,其末端执行器位姿的重复性是衡量机器人完成精密作业能力的重要 指标。 本文针对机器人末端执行器的位姿重复性在线检测,提出了基于方向余弦的位姿重复性测量的理论模型。 设计了一种 基于改进的高斯曲线拟合(IGCF)算法和三次样条拟合-多目标粒子群-回声状态网络(CSF-PPSO-ESN)算法的位姿偏差检测方 法。 通过获取十字激光图像偏角和中心点位置,实现了机器人末端执行器位姿偏差的测量。 实验表明,测量系统的位移测量精 度为±1. 5 μm,角度测量精度为±2 arc-sec。 本文所述的位姿重复性检测方法,为工业机器人末端执行器位姿稳定性的在线实时 监测提供了参考。  相似文献   

9.
为了使三坐标测量机快速准确地识别出被测零件的位姿,提出了一种基于三坐标测量机平动的单目立体视觉识别方法,并对该方法的原理、位姿参数的求解和识别过程进行了研究.根据双目立体视觉原理,以三坐标测量机带动摄像机沿X轴或y轴平移,在两个不同位置分别拍摄被测零件的一幅图像;利用本文提出的基于边缘图像质心偏移的同名像点匹配方法,实现单摄像机立体视觉测量,得到被测零件上各特征点在摄像机坐标系中的三维坐标;由摄像机标定参数,进一步计算出各特征点在机器坐标系中的三维坐标;再结合各特征点在零件CAD坐标系中的对应坐标,求解出被测零件的位姿参数.组建了识别系统,进行了识别实验,结果显示,识别出的实验件位姿的平移量分别为:tx1=32.65 mm,ty1 =-90.23 mm,tz1=13.27 mm,旋转角分别为Ax =38°,AY=4°,Az=-5°,整个识别过程用时1.818 s.得到的实验数据表明该识别方法是可行的,可满足实时测量要求.  相似文献   

10.
针对机器人位姿标定模型中位置和姿态数据的权重不合理导致参数识别精度低甚至发散问题,给出一种直接基于末端位置坐标测量的机器人位姿标定方法,避免了位置和姿态数据量级不同对参数识别精度的影响。采用指数积方法,建立一种包含3点位置信息的机器人运动学模型。通过对运动学模型取微分,利用指数映射微分公式推导出机器人末端3点位置误差与几何参数误差之间映射关系的显示表达并给出参数误差识别方法。采用激光跟踪仪作为测量设备,以UR5机器人为标定对象进行运动学参数标定和验证试验。试验结果表明,机器人末端位置误差模和姿态误差模的平均值分别降低了90%和92%。  相似文献   

11.
针对高功率激光物理装置中的靶自动准直实验平台,提出了一种基于三路显微视觉的高精度靶位姿控制方法。该方法采用基于图像的显微视觉控制策略,通过对送靶机构的主动运动控制,实现了图像雅可比矩阵的在线自标定;利用增量式PI控制方法对送靶机构进行控制,实现靶的快速定位及姿态调整。本文对比了基于图像的显微视觉控制和之前研究中所提出的基于位置的显微视觉控制两种方法。其中,基于图像的控制方法靶的定位误差为0.07μm,姿态调整误差为0.02μrad;而基于位置的控制方法靶的定位误差为0.16μm,姿态调整误差为0.07μrad。实验结果表明:基于图像的显微视觉控制方法对系统中的运动学误差、视觉标定误差等因素具有较好的鲁棒性,靶定位及姿态调整的精度高且稳定性好。  相似文献   

12.
The active visual inspection has made giant strides in development. Due to the complexity of field conditions, the binocular stereo vision sensor in active stereo visual inspection system is difficult to acquire the ideal image pair under the poor illumination environment, or cannot work normally because one of two cameras is damaged. To solve the practical problem, a reparability method of the vision sensor in active stereo visual inspection system is proposed. Based on the traditional measurement platform with a structured stripe projector and two industrial cameras, a reparability mathematical model is established, which merges the measurement mode of the stereo vision and the structured light vision to inspect feature points based on the reparability measurement model. Meanwhile, a mathematical model and calibration method of the structured light vision are developed based on the homography between the image and light plane. The method greatly improved the stability and reliability of measurement data. It is proven by experiment that the method is valid, which can accomplish reparability tasks commendably and achieve uninterrupted inspection of feature points in the actual industrial applications.  相似文献   

13.
为了提高高功率激光装置中靶定位调试的效率和精度,提出了一种仿真初调和实验误差分析相结合的靶定位调试方法。该方法采用3-CCD传感器进行定位监测,利用OpenGL成像技术实现CCD仿真图像的采集,并对目标靶、送靶机构等进行虚拟构建。基于仿真实验分析了实际系统中靶定位的误差来源,包括图像检测误差、3-CCD传感器的装校误差及送靶机构的定位误差等。靶定位算法的调试和初步验证在仿真系统中独立进行,实现了理想条件下的零误差定位调整;调试后的算法在实际系统中的靶定位精度小于±5μm,角度误差为±0.015°。由于仿真初调可脱离实验平台进行,故有效地提高了工程效率。提出的调试方法在实际系统中的定位精度满足高功率激光打靶的要求。  相似文献   

14.
激光视觉是一种在工业检测领域应用广泛的测量方式,其标定是视觉检测系统搭建的基础。为此,提出了一种新型线结构光视觉系统标定方法。采用张氏标定法完成相机标定,通过提取标定板上的激光条纹特征,根据三面共线条件进行处理完成结构光平面的标定,并对标准尺寸进行测量以验证标定结果的准确性。接着基于该系统搭建了柔性臂振动测控实验台,并用其对柔性臂振动进行检测,设计了一种非线性控制器抑制柔性臂的振动。实验结果表明,提出的标定方法三维检测精度可达0.1 mm,得以应用在柔性臂的振动检测上,设计的控制器也可在短时间内抑制柔性臂的振动,以此验证了标定方法的检测效果和振动抑制的有效性。  相似文献   

15.
大视场双目立体视觉柔性标定   总被引:1,自引:0,他引:1  
为了实现双目立体视觉系统大范围高精度三维测量,提出了一种大视场双目立体视觉系统柔性标定方法,该方法将系统中各相机内部参数标定与相机间的姿态标定进行分离,标定内部参数时,只需要令标靶相对于相机任意摆放至少三个姿态,对标靶上的编码标志点进行识别,根据标靶上编码标志点信息,建立各姿态下视图的对应关系,粗略计算标志点的初始三维坐标;建立多姿态下逆向投影误差最小的目标函数,采用非线性最小二乘优化获取精确的相机内部参数和标志点三维坐标;最后,建立基于双相机逆向投影误差最小的目标函数,优化得到精确的相机间姿态的外部参数。实验结果表明:当测量空间为1 200mm×1 000mm×1 000mm时,立体视觉系统的测量精度优于0.1mm,满足大范围双目立体视觉系统的高精度测量需求。  相似文献   

16.
为提高球形靶标中心在像平面上成像点的定位精度,研究了球形靶标成像理论及球心成像点定位方法。建立了空间球在摄像机系统下的投影模型,结合空间解析几何理论,证明了球形靶标的透视投影特性。推导出了球心成像点坐标的精确表达式,并结合测量实际给提出了球心成像点的高精度定位方法。利用仿真实验建立了球心投影畸变误差模型并分析了相关影响因素。最后,结合陶瓷标准球进行了视觉系统位姿参数标定实验。结果表明,该定位方法求得的空间球球心重投影误差比传统的球心成像坐标定位方法产生的重投影误差平均减少了36%,位姿参数稳定性相对提高了40%。得到的结果验证了该球形靶标中心成像点定位方法精度高,鲁棒性强,可应用于基于球形靶标的视觉标定或测量中。  相似文献   

17.
为了提高生产效率,设计一种基于视觉引导的工业棒材上料系统。首先,为了实现视觉引导进行工业棒材上料,设计了工业棒材上料总体方案,并对上料机械结构模型进行选型设计。然后,为了实现棒材的自动识别和位姿检测,提出了一种基于改进YOLOv5的旋转目标识别与定位算法。该方法在YOLOv5主干特征网络上,添加高效ECA通道注意力机制模块,利用其避免降维,并通过适当跨通道交互策略提高特征提取能力;为了增强不同尺度的特征信息融合,将原特征增强网络替换成BiFPN加权双向特征金字塔网络,进行自上而下和自下而上的多尺度特征融合,提高棒材识别准确率并获取平面位置信息;在此基础上,采用双目视觉进行立体匹配获取棒材的深度位置信息,最终实现棒材立体位姿检测。对所提上料系统进行实验验证,棒材识别的平均精度为99.4%,抓取棒材成功率达到90%及以上。  相似文献   

18.
结合装配位姿视觉检测系统的研发,为提高红外LED靶点质心亚像素定位精度与稳定性,对红外LED靶点图像的灰度分布模型进行了研究,提出了一种基于自由曲面拟合的质心定位算法以获取靶点图像的亚像素中心。根据靶点图像的灰度分布,该算法通过双三次样条插值生成靶点灰度分布曲面,利用拟牛顿法求取曲面顶点即靶点图像中心的亚像素坐标。实测实验显示该算法在图像噪声水平较低的高精度测量环境中,当靶点距离摄像机约5m和12m时,与高斯曲面拟合法和加权灰度重心法相比,该算法都能更准确地描述靶点的灰度分布,生成的灰度曲面更加接近靶点图像的真实分布,在高精度测量环境中具有更高的测量精度和稳定性。  相似文献   

19.
基于彩色图像的高速目标单目位姿测量方法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对风洞分离实验对于视觉测量系统的高精度、大视场、高速的测量要求,提出一种基于单目摄像机的风洞运动目标位姿测量方法。该方法利用单目摄像机进行运动目标位姿信息测量,相比于双目测量方法具有设备简单、视场大的优点。首先提出一种基于靶标特征点相互约束关系的参数优化方法,采用复合式靶标实现摄像机的快速高精度标定;针对目标运动图像处理,提出一种基于图像差叠法和标记点位置估计的图像快速分割与目标定位方法,实现图像特征的快速准确定位;针对单目测量要求及目标运动特性,提出一种基于方向估计标记点布局方式,实现合作标记点的快速识别和提取;最后利用单目视觉原理求解运动目标的位置和姿态信息,通过实验室模拟实验完成了测量系统的精度验证,在1 m×1 m视场范围内,其位移测量精度可达到0.19 mm,俯仰和偏航角测量精度可达到0.18°。  相似文献   

20.
提出了一种基于手眼视觉的并联机器人标定方法。基于环路增量法,建立了平面2-DOF冗余驱动并联机器人运动学误差与标定模型;设计了一种标定实验靶板,利用相机采集靶板图像并对其进行分割、识别、旋转补偿的处理,获取机构末端目标位置和实际位置的像素误差值;针对机构自身结构的限制,利用边界曲线识别特征角点,提出了一种基于特征角点确定检测点旋转角度的方法,在补偿相机旋转角度的基础上,再利用简化后的相机针孔模型,将像素误差值通过转换得到机构末端执行器的真实位置误差值;最后利用标定模型和通过视觉系统获取的误差值进行运动学标定。经过4次迭代,机构误差减小为原来的1/3,验证了该方法的可行性。同时该方法具有标定过程用时短、数据量小、实验成本低等优点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号