共查询到20条相似文献,搜索用时 375 毫秒
1.
针对总装生产线精密装配现状,项目设计开发了一种机器视觉定位引导系统,主要实现工业机器人在运动过程中完成在线采集不规则工件图像、视觉定位、角度补偿及精密装配作业。该系统首先采集实时工件图像,利用改进优化的九点标定算法对机器人进行视觉标定可以提高算法的精度;通过预处理操作获取质量较好的图像,按顺序创建卡尺工具,采用加权最小二乘法拟合工件亚像素边缘,再根据相关二维测量算法获取工件中心坐标。最终将得到的位姿数据传送给6轴机器人进行精密装配任务。实验结果表明,该视觉定位引导系统具有现场环境下的高精度定位检测功能,自动化装配定位精度在X方向最大定位误差为0.0281mm、Y方向最大定位误差为0.026mm,足以达到自动化装配生产线的技术要求,具有较好的应用前景和参考价值。 相似文献
2.
3.
针对工业机器人编程效率低下、智能化程度不高和人机交互性能弱等问题,提出一种基于视觉的工业机器人装配演示示教系统,该系统包括目标检测与中心点定位模块、装配动作分类识别模块和机器人动作执行模块。在目标检测与中心点定位模块中,提出一种目标物体中心点定位和机器人抓取方法,使用实例分割算法识别物体类别,通过掩码均值化处理和坐标转换计算物体3D姿态信息;在装配动作分类识别模块中,建立基于深度学习网络的动作分类识别模型,该模型的输入为装配动作视频帧,输出为动作分类标签;最后,机器人动作执行模块根据物体类别、物体3D姿态和动作分类标签等信息规划机器人装配动作,控制机器人执行装配任务。以轴孔装配为例,验证了上述方法的有效性,实现了基于视觉演示的机器人装配模仿编程,对机器人演示示教研究具有一定的参考价值。 相似文献
4.
基于单目视觉提出了工业机器人拆垛系统构想。为实现工业机器人视觉拆垛系统中机器人精确运动控制与工件位姿识别,运用D-H位移矩阵法建立了机器人运动学模型,得到机器人末端相对机器人坐标系的位姿信息。基于形状模板匹配法提出目标图像识别算法,得到各个目标图像在相机坐标系下的位姿信息;将三维视觉模型与机器人运动学模型进行信息融合,建立机器人视觉拆垛控制系统数学模型。基于CCD工业相机、4-DOF工业机器人搭建视觉定位抓取实验系统。通过对空间目标进行抓取的实验,验证基于单目视觉的工业机器人拆垛系统的正确性、精确性、鲁棒性。 相似文献
5.
6.
机器人在测量领域得到了广泛的应用,文中给出了基于单目视觉的器人辅助测量,采用摄象机校准得到摄象机内、外参数,由手眼转换关系移动机器人执行器得到要求的摄象机运行,从而求出空间点在摄象机坐标系中的坐标,并由摄象机的外部参数计算得到空间被测量点在绝对坐标系中位置坐标。 相似文献
7.
8.
9.
标定工作是实现机器人视觉计算的前提.根据移动焊接机器人工作场合的特殊性,基于OpenCV,提出一套针对手眼双目视觉系统的自主标定方法.自动提取角点,自主筛选有效标定图像序列,由亚像素角点提取结果求取相机内参数,由同时刻获取的标定图像对估算双目间几何矩阵,由标定板面在摄像机坐标系下位姿矩阵改变量间接求取摄像机运动矩阵,用最小二乘法快速计算出手眼关系.标定试验结果表明,相对于传统的Matlab标定工具箱,该方法能够满足用于机器人焊接的视觉系统所需标定精度,同时因无人为参与可很大程度地提高移动焊接机器人的自主性. 相似文献
10.
基于距离误差模型的标定技术,建立机器人末端距离误差与机器人运动学参数误差间的模型关系,避免了标定过程中坐标系的转换误差,能显著提高标定精度。视觉测量技术具有测量精度高、非接触性、实时性强等特点,与传统的机器人末端测量手段相比,具有成本低、操作简单等优势。研究一种将距离误差模型与视觉测量技术相结合的机器人标定方法,用于提高工业机器人特定工作空间的精度。采用双目视觉系统,将相机外置于机器人进行测量。基于距离误差模型进行机器人参数标定,利用标定结果进行运动学参数补偿。结果表明:特定标定工作空间内的距离误差都有所改善;在标定轨迹上,绝对距离误差的平均值从0.279 9 mm减少为0.104 4 mm,非标定轨迹的误差降幅高达50%以上,验证了该方法的可行性。 相似文献
11.
在分析了RV减速器配件支撑盘和针齿壳的装配要求后,设计了由AGV和机械臂组成的移动装配机器人系统来代替人工实现工件的装配,以提高RV减速器工件的装配速度与精度,减少人为因素影响。提出了二次目标定位的机械臂定位控制策略,弥补了AGV的定位误差,提高了机器人的识别精度,减小了系统整体运行时间。利用HALCON软件实现对装配对象的识别与定位,加入了去除物体阴影的自适应阈值算法,提高了目标的识别速度和精度。大量实验测试表明,所设计的机器人能够完成RV减速器支撑盘和针齿壳的定位抓取和装配工作,最大定位误差为0.906mm,平均定位误差为0.4325mm,平均识别时间为0.695s。在现有软硬件条件下,该系统能够替代人工完成1mm内的间隙配合装配工作。 相似文献
12.
13.
Xie Zexiao Zhang Chengguo Zhang Qiumei 《International Journal of Machine Tools and Manufacture》2004,44(11):1197-1203
In this paper, a single-ball-target-based approach is presented for the extrinsic calibration of a multiple-axis, structured-light scanning system. Since the output of the structured-light sensor is 2D data, the system mathematical model is directly built as the transformation from 2D sensor coordinate system (laser plane) to Cartesian world coordinate system, not 3D non-orthogonal skewed coordinate system to Cartesian world coordinate system. By measuring a fixed point (ball center) using the sensor, “conjugate pairs” are identified for solving this model. An algorithm for determining the position of the CMM scanning axis where the laser plane passes through the ball center is proposed to enable this sensor to measure the fixed point. The calibration procedure facilitates on-line use. Experiments show that the calculation accuracy of the transformation matrix is adequate for common use. 相似文献
14.
为解决人工加注汽车空腔双组分聚氨酯泡沫时生产效率低和质量稳定性差的问题,对视觉检测技术、发泡工艺和机器人自动化应用进行研究,提出一种3D视觉引导机器人进行汽车空腔自动发泡的方案。通过地面安装的3台相机组成3D视觉系统,拍照检出汽车车身在工作站内的静止位置,计算出车身实际位置与标定的基准位置之间的偏差,引导机器人进入车身空腔填充泡沫的工作区域,保证机器人末端安装的3D激光视觉传感器拍摄加注孔的位置相对不变。机器人手持3D激光视觉传感器,检测车身加注孔在立体空间中的坐标位置,计算出加注孔的实际位置与标定的基准位置之间的偏差,引导加注枪头精确插入加注孔,防止发生干涉甚至碰撞。机器人与液压定比计量系统通信,传递双组分聚氨酯的加注〖JP2〗量信息;液压定比计量系统以一定的流量和压力输送双组分聚氨酯材料进入加注枪的混合室,充分混合并注入空腔发生化学反应,实现在汽车空腔内自动发泡。将该方案应用于某主机厂的涂装车间,生产节拍显著提高,制造质量一致性良好。 相似文献
15.
16.
针对室内未知环境下单一传感器定位累积误差大、受环境局限等缺点,设计一种多传感器非线性融合定位系统,以提高移动机器人自主导航的定位精度。该系统通过高斯牛顿方程对由激光雷达、惯性测量单元、轮式里程计测量得到的位姿信息进行融合优化,补偿由于在室内环境信息下单一传感器定位精度低所带来的定位误差。实验结果表明:应用多传感器融合定位系统的移动机器人在长6 m、宽3 m的室内面对曲折复杂的路径和各种噪声干扰时运行总路程12.8 m后,可以将定位误差稳定在0.106 3 m内,并将平均相对误差稳定在0.716%左右。与现有方法对比,使用该方法提高了室内移动机器人定位的精度和鲁棒性。 相似文献
17.
文章针对某地质钻杆摩擦焊接工作站钻杆接头自动上下料需求,在不改变原有工件存料方式的基础上,设计基于双目视觉的钻杆接头定位系统。利用大恒MER-500系列摄像机采集图像信息,并将其上传到工控机进行图像预处理及边缘检测;然后采用最小二乘法拟合椭圆,确定工件圆心坐标位置,并对圆心点进行排序;最终将工件坐标信息传给ABB机器人,实现工件的视觉定位及抓取。结果表明,利用最小二乘法拟合椭圆能够满足工件定位精度的要求。该定位系统可为类似工件的机器视觉定位提供借鉴。 相似文献
18.
19.
视觉传感器与焊接机器人的标定是焊接智能化应用中的重要问题,针对末端夹持线结构光传感器的焊接机器人,提出了一种基于空间直线约束的手眼标定方法.首先任意变换机器人位姿使线结构光传感器投射出的光平面与标定模板相交,然后通过特征点提取算法提取出线结构光与直线的交点,并基于直线约束建立了非线性优化模型,最后结合罚函数法与改进的Powell算法同时求解传感器位置与方向参数.基于上述方法进行了一系列试验,结果表明,该方法通用性强,适合现场标定,有效的提高了标定精度,标定精度在0.2 mm以内. 相似文献
20.
针对机器人单目视觉标定圆心靶标特征点求取问题,利用射影变化公切线不变性,建立圆心靶标的特征点几何求解模型,并进行了精确求解,该模型理论上不存在模型误差;为了检验几何求解模型的精确性和稳定性,分别对机器人单目视觉坐标系下的圆心靶标圆心点和棋盘格靶标角点进行了三维测量。实验结果表明:测量长度在300 mm内的最大相对误差小于1.5%,测量结果较精确;各点的距离平均绝对偏差均在0.2 mm左右,且无阶跃,该方法稳定。 相似文献