首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 250 毫秒
1.
基于图像的视觉伺服方法,图像的变化直接解释为摄像机的运动,而不是直接对机械手末端实现笛卡尔速度控制,导致机械手的运动轨迹迂回,产生摄像机回退现象。针对这一问题,提出了将旋转和平移分离并先实现旋转的视觉伺服方案。该方案计算量小,系统响应时间短,解决了图像旋转和平移间的干扰,克服了传统基于图像视觉伺服产生的摄像机回退现象,实现了时间和路径的最优控制。并用传统IBVS的控制律和摄像机成像模型解释了回退现象的产生原因。二维运动仿真说明了提出方案的有效性。  相似文献   

2.
为实现在统一的理论框架下对机器人视觉伺服基础特性进行细致深入的研究,本文基于任务函数方法,建立了广义的视觉伺服系统模型.在此模型基础之上,重点研究了基于位置的视觉伺服(PBVS)与基于图像的视觉伺服(IBVS)方法在笛卡尔空间和图像空间的动态特性.仿真结果表明,在相同的比较框架结构下,PBVS方法同样对摄像机标定误差具有鲁棒性.二者虽然在动态系统的稳定性、收敛性方面相类似,但是在笛卡尔空间和图像空间的动态性能上却有很大的差别.对于PBvS方法,笛卡尔轨迹可以保证最短路径,但是对应的图像轨迹是不可控的,可能会发生逃离视线的问题;对于IBVS方法,图像空间虽然能保证最短路径,但是由于缺乏笛卡尔空间的直接控制,在处理大范围旋转伺服的情况时,会发生诸如摄像机退化的笛卡尔轨迹偏移现象.  相似文献   

3.
史豪斌  徐梦  刘珈妤  李继超 《控制与决策》2019,34(12):2517-2526
基于图像的视觉伺服机器人控制方法通过机器人的视觉获取图像信息,然后形成基于图像信息的闭环反馈来控制机器人的合理运动.经典视觉伺服的伺服增益的选取在大多数条件下是人工赋值的,故存在鲁棒性差、收敛速度慢等问题.针对该问题,提出一种基于Dyna-Q的旋翼无人机视觉伺服智能控制方法调节伺服增益以提高其自适应性.首先,使用基于费尔曼链码的图像特征提取算法提取目标特征点;然后,使用基于图像的视觉伺服形成特征误差的闭环控制;其次,针对旋翼无人机强耦合欠驱动的动力学特性提出一种解耦的视觉伺服控制模型;最后,建立使用Dyna-Q学习调节伺服增益的强化学习模型,通过训练可以使得旋翼无人机自主选择伺服增益.Dyna-Q学习在经典的Q学习的基础上通过建立环境模型来存储经验,环境模型产生的虚拟样本可以作为学习样本来进行值函数的迭代.实验结果表明,所提出的方法相比于传统控制方法PID控制以及经典的基于图像视觉伺服方法具有收敛速度快、稳定性高的优势.  相似文献   

4.
针对多自由度机械臂快速趋近任意四边形态目标的视觉伺服控制难题,提出了结合线特征与内区域特征的机器人视觉伺服解耦控制方法.构建了目标内区域特征以指导相机的平移运动速率,利用目标的线特征给出相机的旋转角速率,并通过引入内区域特征的矢量补偿和质心坐标的位置补偿,实现了平移和旋转控制的部分解耦.最后,对机器人视觉伺服控制系统进行了稳定性分析.仿真验证结果表明所提方法能控制相机以较快而平滑的动作收敛到期望位姿,且在相机光轴与目标平面近似垂直的条件下能较好地克服深度估计造成的不确定性问题.  相似文献   

5.
基于图像的视觉伺服可用于对机械臂的运动进行有效的控制。然而,正如许多研究者指出的,当初始位置和期望位置相距较远时,此种控制策略将因其局部特性而存在收敛性、稳定性问题。通过在图像平面内定义充分的图像特征轨迹,并对这些轨迹进行跟踪,我们可以充分利用基于图像的视觉伺服所固有的局部收敛性及稳定性特性这一优势,从而避免初始位置与期望位置相距较远时所面临的问题。因此,近年来,图像空间路径规划已成为机器人领域的一个热点研究问题。但是,目前几乎所有的有关结果均是针对手眼视觉系统提出的。本文将针对场景摄像机视觉系统提出一种未标定视觉路径规划算法。此算法在射影空间中直接计算图像特征的轨迹,这样可保证它们与刚体运动一致。通过将旋转及平移运动的射影表示分解为规范化形式,我们可以很容易地对其射影空间内的路径进行插值。在此之后,图像平面中的图像特征轨迹可通过射影路径产生。通过这种方式,此算法并不需要特征点结构和摄像机内部参数的有关知识。为了验证所提算法的可行性及系统性能,本文最后给出了基于PUMA560机械臂的仿真研究结果。  相似文献   

6.
飞行机械臂系统的接触力控制   总被引:1,自引:0,他引:1  
针对飞行机械臂系统的接触力控制问题,本文首先从理论上证明了闭环无人机系统具有与弹簧-质量-阻尼系统一致的动态特性.基于飞行机械臂接触状态下力的分析,得到了无人机水平前向接触力与系统重力和俯仰角之间的动态关系,进而分析出接触力控制可以不使用力传感器来实现.根据阻抗控制思想,提出了飞行机械臂系统接触力控制方法,即通过同时控制位置偏差和对应姿态角度来实现接触力的控制.给出了单自由度飞行机械臂系统动力学模型,对应分析出系统的稳定性.开发了基于四旋翼飞行器的单自由度飞行机械臂系统,并进行了实际的飞行实验,验证了所提出接触力控制方法的有效性,同时也证实了所开发系统的可靠性.  相似文献   

7.
基于位置的机械臂视觉伺服控制需要解决位姿估计和目标跟踪控制问题.为了克服机械臂运动过程中的运动空间约束,提出了基于滚动时域估计(MHE)的机械臂位姿估计方法.在位姿估计的基础上,利用对偶梯度上升方法以及拉格朗日乘子处理具有控制输入约束的优化问题,并给出了基于迭代线性二次调节(iLQR)的视觉伺服预测控制器设计方法.进一步,采用极点配置方法设计了扩张状态观测器(ESO)用于解决估计误差和线性化误差引起的扰动问题.进而,给出了保证闭环系统稳定的充分条件.最后,通过仿真对比验证了本文所提算法的有效性和优越性.  相似文献   

8.
旋翼飞行机械臂建模及动态重心补偿控制   总被引:2,自引:0,他引:2  
旋翼飞行机械臂是将多关节机械臂固连在旋翼飞行平台上而组成的一种面向主动任务操作的特殊系统,其飞行平台和机械臂之间存在强耦合特性.本文针对机械臂的规划运动对飞行平台的干扰问题,建立了系统运动学和动力学模型,并通过动态计算系统重心位置坐标,设计出基于backstepping的动态重心补偿控制方法,针对补偿项测量噪声问题设计了二阶低通滤波器,并使用Lyapunov稳定性理论证明了系统的稳定性.仿真和实验均验证了在相同的参数条件下,具有动态重心补偿项的控制算法比没有重心补偿项的控制算法在轨迹跟踪和姿态稳定方面具有明显优势.  相似文献   

9.
针对传统机械臂无法更好的适应外部坏境的变化,提出了基于双目视觉的机械臂伺服控制系统的设计。首先用D-H建模法对机械臂进行运动学分析以及运动学求解,然后利用数字图像处理技术,基于SURF特征完成目标物体的识别以及双目立体视觉的测量,从而为机械臂的动作提供目标物体在空间中的坐标。最后,对目标测距的精度进行了结果验证,并完成抓取动作。  相似文献   

10.
面向飞行机械臂的飞行抓取作业,提出了一个由六旋翼飞行机器人和7自由度机械臂组成的飞行机械臂系统.系统采用分离式控制策略,即飞行机器人和机械臂各有一个控制器.机械臂运动所引起的系统质心和转动惯量的变化量及其导数被用来估计机械臂对飞行机器人的扰动力和力矩.为了减弱机械臂扰动对六旋翼飞行机器人的飞行控制性能的影响,提出了扰动补偿H∞鲁棒飞行控制器.实验结果表明,与没有扰动补偿的控制器相比,当机械臂运动时所提出的扰动补偿H∞鲁棒控制器对系统的飞行控制性能有明显的提升效果.最后,目标物抓取作业实验验证了所提出的飞行机械臂系统的可靠性.  相似文献   

11.
A novel hybrid visual servoing control method based on structured light vision is proposed for robotic arc welding with a general six degrees of freedom robot. It consists of a position control inner-loop in Cartesian space and two outer-loops. One is position-based visual control in Cartesian space for moving in the direction of weld seam, i.e., weld seam tracking, another is image-based visual control in image space for adjustment to eliminate the errors in the process of tracking. A new Jacobian matrix from image space of the feature point on structured light stripe to Cartesian space is provided for differential movement of the end-effector. The control system model is simplified and its stability is discussed. An experiment of arc welding protected by gas CO_2 for verifying is well conducted.  相似文献   

12.
This article describes the performance of 3-D positioning control by linear visual servoing using binocular visual space in a human-like hand-eye system which has a similar kinetic structure to a human being. We approximate the nonlinear time-variant mapping from a binocular visual space to the joint space of the manipulator as a linear time-invariant mapping. We also investigate the effect of binocular visual space in linear mapping by comparing it with linear mapping using Cartesian space. Some experimental results are presented using the human-like hand-eye system to demonstrate the performance of 3-D positioning control. This work was presented, in part, at the Seventh International Symposium on Artificial Life and Robotics, Oita, Japan, January 16–18, 2002  相似文献   

13.
智能空间中家庭服务机器人所需完成的主要任务是协助人完成物品的搜寻、定位与传递。而视觉伺服则是完成上述任务的有效手段。搭建了由移动机器人、机械臂、摄像头组成的家庭服务机器人视觉伺服系统,建立了此系统的运动学模型并对安装在机械臂末端执行器上的视觉系统进行了内外参数标定,通过分解世界平面的单应来获取目标物品的位姿参数,利用所获取的位姿参数设计了基于位置的视觉伺服控制律。实验结果表明,使用平面单应分解方法来设计控制律可简单有效地完成家庭物品的视觉伺服任务。  相似文献   

14.
Image-based visual servoing is a flexible and robust technique to control a robot and guide it to a desired position only by using two-dimensional visual data. However, it is well known that the classical visual servoing based on the Cartesian coordinate system has one crucial problem, that the camera moves backward at infinity, in case that the camera motion from the initial to desired poses is a pure rotation of 1800 around the optical axis. This paper proposes a new formulation of visual servoing, based on a cylindrical coordinate system that can shift the position of the origin. The proposed approach can interpret from a pure rotation around an arbitrary axis to the proper camera rotational motion. It is shown that this formulation contains the classical approach based on the Cartesian coordinate system as an extreme case with the origin located at infinity. Furthermore, we propose a decision method of the origin-shift parameters by estimating a rotational motion from the differences between initial and desired image-plane positions of feature points.  相似文献   

15.
This paper deals with the use of invariant visual features for visual servoing. New features are proposed to control the 6 degrees of freedom of a robotic system with better linearizing properties and robustness to noise than the state of the art in image-based visual servoing. We show in this paper that by using these features the behavior of image-based visual servoing in task space can be significantly improved. Several experimental results are provided and validate our proposal.  相似文献   

16.
《Advanced Robotics》2013,27(10):1041-1056
When considering real-world applications of robot control with visual servoing, both three-dimensional (3-D) information and a high feedback rate are required. We have developed a 3-D target-tracking system with a 1-ms feedback rate using two high-speed vision systems called Column Parallel Vision (CPV) systems. To obtain 3-D information, such as position, orientation and shape parameters of the target object, a feature-based algorithm has been introduced using moment feature values extracted from vision systems for a spheroidal object model. Also, we propose a new 3-D self-windowing method to extract the target in 3-D space using epipolar geometry, which is an extension of the conventional self-windowing method in 2-D images.  相似文献   

17.
考虑具有可见性约束和执行器约束的载荷不确定移动机器人视觉伺服系统,提出一种鲁棒视觉伺服预测控制策略.首先将该移动机器人视觉伺服系统建模为关于视觉伺服误差和驱动的不确定系统.其次,对约束的视觉伺服误差子系统,设计基于半正定规划的速度规划预测控制算法.该算法分为离线计算和在线调度两个部分,降低预测控制算法的在线计算量.而对约束的视觉伺服驱动子系统,采用极小极大鲁棒预测控制算法,实现对视觉伺服误差子系统的规划速度的渐近跟踪.进一步,建立了载荷不确定移动机器人视觉伺服误差和驱动系统的鲁棒渐近稳定性结果.最后,对比仿真结果验证了本文策略的有效性和优越性.  相似文献   

18.
Visual servoing is a control method to manipulate the motion of the robot using visual information, which aims to realize “working while watching.” However, the visual servoing towards moving target with hand–eye cameras fixed at hand is inevitably affected by hand dynamical oscillation. To overcome this defect of the hand–eye fixed camera system, an eye-vergence system has been put forward, where the pose of the cameras could be rotated to observe the target object. The visual servoing controllers of hand and eye-vergence are installed independently, so that it can observe the target object at the center of camera images through eye-vergence function. In this research, genetic algorithm (GA) is used as a pose tracking method, which is called “Real-Time Multi-step GA(RM-GA),” solves on-line optimization problems for 3D visual servoing. The performances of real-time object tracking using eye-vergence system and “RM-GA” method have been examined, and also the pose tracking accuracy has been verified.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号