共查询到18条相似文献,搜索用时 171 毫秒
1.
基于手眼立体视觉的机器人定位系统 总被引:1,自引:0,他引:1
研发了基于手眼的机器人定位系统,采用了眼在手上的单目摄像机,通过机械手的一次移动实现了立体视觉的功能.提出了一种方便有效手眼标定方法,避免了复杂的传统手眼标定过程,无需求解摄像机外参数和手眼变换矩阵.仅获取标定时刻的摄像机综合参数和机器人位姿,就可以在机器人基坐标系中视场范围内的任意两点进行检测,根据立体视觉的约束关系求解出目标物体在机器人基坐标中的位置,进而实现对目标物体的精确定位. 相似文献
2.
3.
深入研究了机器人手眼视觉系统的立体定位问题。首先,重新将手眼问题公式化,得到一个新的系统模型;然后,在此基础上提出了一种实用有效的标定方法。其核心思想是直接将图像坐标映射到机器人基坐标系中,把系统参数作为一个整体来获取,而不必分别计算摄像机内部的每一个参数。与原方法相比,本方法可随意改变末端姿态定位,即定位时摄像机对目标取像的姿态不受任何约束。实验表明,该方法操作方便、实现简单、定位精度高。这一方法的提出克服了原方法的局限性,大大推广了手眼视觉系统的应用范围。 相似文献
4.
5.
针对立体视觉系统在定位应用中存在标定步骤繁琐、耗时长及误差较大等问题,对机器人手眼单目激光立体视觉系统标定误差补偿进行研究。首先,对现有的摄像机标定、手眼标定和激光平面标定模型进行分析,在方便提取整体标定误差的前提下,组合出一种以“棋盘格&激光条纹”混合图像为基础的整体视觉系统快速标定方案。然后,对该视觉系统标定结果产生的误差进行分析与提取,提出一种从像素坐标和重建定位坐标到整体标定误差坐标的BP神经网络预测模型,利用该模型对标定方案产生的误差进行预测和补偿,提高整体标定精度。最终,焊缝位置测量实验表明,该方法可较大程度提高标定精度,在低精度设备的条件下实现同等精度的立体视觉系统标定。 相似文献
6.
基于自抗扰控制器的机器人无标定手眼协调 总被引:7,自引:0,他引:7
研究机器人无标定手眼协调问题.分析了图像空间到机器人操作空间之间的非线性映
射关系,并把非线性的映射关系看成是系统的未建模动态.基于自抗扰控制器思想,通过对系统
未建模动态和外扰的补偿,完成了不依赖于任务的无标定手眼协调控制器的设计,实现了广泛意
义的机器人无标定手眼协调控制.仿真和实验结果表明了该方法的有效性. 相似文献
7.
《微型机与应用》2018,(1):97-100
通过视觉引导机器人完成抓取任务,机器人手眼标定的精度直接影响了抓取任务作业精度和抓取成功率。对于基于位置的机器人视觉引导系统,手眼标定的任务则是确定机器人坐标系与相机坐标系之间的位姿关系。通过HALCON平台,使用线性标定法实现了6DOF机器人的手眼标定。对手眼标定的结果进行反演,直观地展示了手眼标定的精确程度。最后通过采集多组不同数量的图片,在HALCON平台下验证了不同摄像机模型对手眼标定的精度影响,以及同种摄像机模型在不同数量图片的情况下手眼标定的标定精度。实验证明,根据位姿矩阵中待求解的未知量个数采集合适数量的图片和使用更精确的摄像机模型能够提高手眼标定的精度。 相似文献
8.
9.
分析了基于恒定旋转矩阵的机器人视觉立体定位方法原理,提出利用机器人控制命令参数直接获取恒定旋矩阵的方法,该方法大大简化了摄像机内外参数的标定过程。设计了MOTOMAN-SV3XL机器人手眼视觉控制系统,制了相应的控制软件,进行了大量的实验研究,并取得了良好的效果。 相似文献
10.
机器人手位姿数据对手眼标定精度的影响不可忽略,将对基于手眼标定方程AX=XB的精度影响因素进行分析.通过手眼标定仿真和实测实验验证上述两个因素对手眼标定精度的影响与理论分析的一致性.通过仿真与实测实验,总结得出了减小摄像机与靶标间距离、减小机器人手的运动前后到基坐标空间距离的相差距离,可提高手眼标定精度,通过四元数法和矩阵直积法验证了此规律在解AX=XB标定方程时的通用性,并且在摄像机与靶标间距约为230 mm以及机器人手的运动前后到基坐标空间距离的相差距离为3.2401 mm时,手眼标定平移向量相对误差最高精度可达0.0403%. 相似文献
11.
12.
13.
在传统基于固定视觉的排爆机器人抓取系统中,相机视觉易被遮挡且不能保证拍摄清晰度。基于随动视觉技术,提出一种将深度相机置于机械手末端并随机械手运动的排爆机器人自主抓取系统。利用深度相机计算目标物体的三维坐标,采用坐标转换方法将目标物体的位置坐标信息实时转换至机器人全局坐标系,并研究相机坐标系、机器人全局坐标系与末端执行器手爪工具坐标系三者的动态映射关系,实现排爆机器人的自主抓取。实验结果表明,与传统固定视觉方法相比,随动视觉方法可在误差2cm内,使得机器人机械手爪准确到达目标物体所在位置,且当机器人距离目标物体100cm~150cm时,抓取效果最佳。 相似文献
14.
移动机器人自适应视觉伺服镇定控制 总被引:2,自引:0,他引:2
对有单目视觉的移动机器人系统,提出了一种自适应视觉伺服镇定控制算法;在缺乏深度信息传感器并且摄像机外参数未知的情况下,该算法利用视觉反馈实现了移动机器人位置和姿态的渐近稳定.由于机器人坐标系与摄像机坐标系之间的平移外参数(手眼参数)是未知的,本文利用静态特征点的位姿变化特性,建立移动机器人在摄像机坐标系下的运动学模型.然后,利用单应矩阵分解的方法得到了可测的角度误差信号,并结合2维图像误差信号,通过一组坐标变换,得到了系统的开环误差方程.在此基础之上,基于Lyapunov稳定性理论设计了一种自适应镇定控制算法.理论分析、仿真与实验结果均证明了本文所设计的单目视觉控制器在摄像机外参数未知的情况下,可以使移动机器人渐近稳定到期望的位姿. 相似文献
15.
16.
为实现焊接机器人对曲线焊缝的自动跟踪,提出一种简便的位姿实时调整策略和协调视觉跟踪与机器人运动的视觉伺服控制方法。建立了曲线焊缝视觉跟踪过程中焊接机器人期望位姿的数学模型;设计了一种上下层结构的模糊视觉伺服控制器,通过建立焊缝特征点像素坐标偏差与末端轴旋转角度之间的关系模型,动态确定模糊论域的大小,在机器人期望位姿的基础上仅仅通过调整末端轴的旋转量来保证图像特征点始终存在于相机视场内。通过模拟焊接机器人自动跟踪曲线焊缝的实验,验证了所提策略与方法的有效性。 相似文献
17.
针对传统示教再现机器人仅能进行位置确定、轨迹固定的拆垛任务,局限于固定场景的问题,设计了一个基于视觉定位的机器人智能拆垛系统.该系统利用目标像素中心坐标转换求得对应世界坐标.针对眼在手外的安装相机方式,导致目标经图像处理算法求得的旋转角度可能由于相机自身的偏转而产生误差的问题,提出利用相机外参系数补偿目标旋转角度.最后设计拆垛策略,通信引导机器人以由近及远的抓取顺序执行拆垛任务,并无需人工干预自动完成整垛拆卸.经过实验数据表明,该系统可在未知工作场景中对未知位置目标进行抓取,位置误差可达1.1 mm,角度误差可达1.2°,堆垛一层定位时间为1.2 s左右,满足工业场景中对拆垛机器人的精度与效率需求. 相似文献
18.
一种非定标图像高精度三维重建算法 总被引:1,自引:1,他引:0
由非定标图像重建三维场景有着广泛的应用。给出了一种非定标多视图像三维重建算法。该算法主要基于因子分解和光束法平差技术。首先用因子分解方法得到射影空间下相机投影矩阵和物点坐标,以旋转矩阵的正交性以及对偶绝对二次曲面秩为3为约束,将射影空间升级到欧式空间,最后用光束法平差进行优化。该方法可同时获得相机的内外参数、畸变系数和场景的三维坐标。仿真实验表明,在1000 mm×1000 mm×400mm的范围内,当像点检测误差在0-1pixel和0-2pixel内,所重建三维点的误差分别为0.1530 mm和0.6712 mm。在500 mm×500 m×200 mm下,真实实验重构三维点的误差在0.3 mm以内。所提出的算法稳定可靠,可对实际工程进行指导。 相似文献