首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对作业型飞行机器人完成抓取、搬运等任务时所产生的重心偏移问题,设计了一种带有重心调节机构的作业型飞行机器人,并提出了一种重心调节控制策略.该方法通过对作业装置中的机械臂进行运动学推导,动态计算出机械臂运动时复合系统重心位置的改变量,利用力矩平衡方程计算得到调节机构所需转动的角度,从而实现对复合系统重心的调节.为验证所提出控制策略的有效性,在Matlab仿真环境中,分别研究了有无重心调节控制时机械臂运动对复合系统重心轨迹和定点悬停位姿的影响.通过户外实物实验测试了飞行机器人搭载负载情况下,调节机构在定点悬停作业时的稳定效果.实验结果表明,在所述控制策略下,重心调节机构能够在飞行机器人作业过程中实时调节复合系统重心的偏移量,验证了控制策略的有效性.  相似文献   

2.
《微型机与应用》2018,(1):97-100
通过视觉引导机器人完成抓取任务,机器人手眼标定的精度直接影响了抓取任务作业精度和抓取成功率。对于基于位置的机器人视觉引导系统,手眼标定的任务则是确定机器人坐标系与相机坐标系之间的位姿关系。通过HALCON平台,使用线性标定法实现了6DOF机器人的手眼标定。对手眼标定的结果进行反演,直观地展示了手眼标定的精确程度。最后通过采集多组不同数量的图片,在HALCON平台下验证了不同摄像机模型对手眼标定的精度影响,以及同种摄像机模型在不同数量图片的情况下手眼标定的标定精度。实验证明,根据位姿矩阵中待求解的未知量个数采集合适数量的图片和使用更精确的摄像机模型能够提高手眼标定的精度。  相似文献   

3.
针对下水道、勾缝等狭窄位置的手机拾取的问题, 本文提出一种基于机器视觉的伺服机械臂抓取方法. 首先对机械臂eye-in-hand上的相机进行标定, 图像预处理及目标检测等, 在位姿检测中提出一种基于二维坐标系下手机位姿解算算法, 得出解算的最佳位姿角只与夹持点的像素坐标的差值有关, 其位姿角的大小决定了手抓旋转的角度. 实验用Matlab软件对位姿检测进行仿真分析, 其包括SURF不变特征点的目标检测实验和位姿解算实验, 最后用Rethink双臂机器人的右臂对手机进行抓取验证. 实验表明, 在误差允许范围内, 提出的算法具有一定的有效性, 其结果为伺服机械臂抓取手机提供良好的准确性.  相似文献   

4.
旋翼飞行机器人视觉定位方法及系统   总被引:1,自引:0,他引:1  
《机器人》2016,(1)
为实现旋翼飞行机器人在室内环境中的精确定位及控制,设计了基于单目视觉的机载视觉定位方法.该方法通过矩特征提取、图形分类来识别地面标记图形,进而利用EPn P方法解算摄像机坐标.为验证机载视觉定位方法的有效性,利用Kinect传感器搭建了旋翼飞行器外部定位系统,设计了针对旋翼飞行器目标的视觉跟踪算法,定位精度达2 mm.实验结果表明,机载视觉定位方法能够很好地进行飞行器定位.  相似文献   

5.
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,使用ROI Align进行感兴趣区域提取,评估抓取候选框,获取目标的最优抓取位姿。为验证算法有效性,基于康奈尔抓取数据集开展了抓取位姿估计实验,仿真抓取位姿估计准确度达到96.9%。基于Inter RealSense D415深度相机和UR5机械臂搭建了实物平台,在真实场景下对位姿随机摆放的多样性目标物体进行多次抓取实验,结果显示抓取目标检测成功率为95.8%,机器人抓取成功率为90.2%。  相似文献   

6.
机器人抓取目标时,准确完成任务的前提是可以精准检测到目标位置,当距离目标较远时,以信号传感为基础的定位精度和稳定性会受到影响。为解决上述问题,提出基于视觉传感器的机器人抓取目标精确定位方法。利用视觉传感器获取目标图像,并标定目标位姿。采取直线段检测方法提取目标位姿特征,将提取的特征输入到改进粒子群算法的支持向量机回归模型中,输出定位结果。利用回归误差补偿模型对定位结果补偿,完成机器人抓取目标精确定位。实验结果显示,利用视觉传感器后,机器人抓取目标的定位时间为35s、与实际位置的接近程度高于81%、置信度高于92%,由此可知机器人抓取视觉传感目标定位效果较好。  相似文献   

7.
作业型飞行机器人是指将多自由度机械臂固连在飞行机器人上的一类新型机器人系统,它能够对周围环境施加主动影响,同时也存在较为复杂的动力学性能.本文针对作业型飞行机器人滑翔抓取物体时所受到的摩擦力和接触力问题以及在飞行过程中产生的转动惯量变化问题,设计了一种整体式鲁棒自适应控制策略.首先在作业型飞行机器人系统动力学建模中引入摩擦力和接触力模型,考虑飞行机器人转动惯量为有界变量,提高了建模和抓取的精度.然后,为减弱滑翔抓取产生的剧烈扰动对飞行控制性能的影响,设计了一种抗扰动的鲁棒自适应控制器,并使用区间矩阵法对转动变量变化进行补偿控制.接着,通过Lyapunov稳定性理论证明了系统的稳定性.最后通过仿真对比实验,验证了所提出方法的有效性和优势.  相似文献   

8.
针对传统机械臂局限于按既定流程对固定位姿的特定物体进行机械化抓取,设计了一种基于机器视觉的非特定物体的智能抓取系统;系统通过特定的卷积神经网络对深度相机采集到的图像进行目标定位,并在图像上预测出一个该目标的可靠抓取位置,系统进一步将抓取位置信息反馈给机械臂,机械臂根据该信息完成对目标物体的抓取操作;系统基于机器人操作系统,硬件之间通过机器人操作系统的话题机制传递必要信息;最终经多次实验结果表明,通过改进的快速搜索随机树运动规划算法,桌面型机械臂能够根据神经网络模型反馈的的标记位置对不同位姿的非特定物体进行实时有效的抓取,在一定程度上提高了机械臂的自主能力,弥补了传统机械臂的不足.  相似文献   

9.
基于ReLU神经网络的移动目标视觉伺服研究   总被引:1,自引:0,他引:1  
针对移动目标跟踪以及抓取的问题,提出一种基于ReLU网络模型的单目视觉伺服系统。首先建立机器人视觉系统,完成对目标跟踪以及特征提取的任务,并通过结合单目视觉模型对其位姿进行估计,从而得到目标状态;然后,利用ReLU神经网络对机械臂的逆运动学进行学习,并用训练后网络模型构建单目视觉伺服系统的控制策略来避免机器人逆运动学求解计算量大、多解等问题;最后,为了提高抓取成功率,对末端执行器的运动轨迹进行规划。实验在NAO机器人平台上进行,根据实验结果证明方法的有效性。  相似文献   

10.
段肖  马钢  危辉 《智能系统学报》2022,17(5):941-950
为了适应环境的复杂性和多样性,增强机器人抓取任务的鲁棒性,本文从3D目标跟踪算法出发,提出了一种实现机器人手眼协调的新方法。该方法采用改进的基于区域的位姿追踪算法同时跟踪机械臂夹持器和目标物体的位姿,根据二者的相对位置关系引导机械臂运动。对基于区域的位姿跟踪算法,本文提出根据局部区域分割线构建分割模型并改进模型颜色似然的线性更新方式,使得算法能够准确跟踪机械臂夹持器与目标物体。基于ROS平台搭建了一套仿真实验环境,并分别在仿真环境和真实环境下验证了此手眼协调系统的有效性和鲁棒性。这种方式不仅不需要手眼标定,更接近于人类“Sensor-Actor”带反馈的闭环控制方式,同时赋予了机器人足够的灵活性来应对弹性的任务和多变的环境。  相似文献   

11.
沙莎  马尧阶 《计算机工程》2011,37(2):145-147
通过分析单目视觉智能车的运动特征,建立其空间约束模型以及与运动控制密切相关的图像坐标系和运动平面坐标系,在此基础上根据摄像头相对位姿的不同推导出2种不同的坐标映射关系,讨论将其应用在单目标跟踪和连续目标跟踪时的车体运动控制规律,形成一个有较强针对性和实用价值的手眼机器人视觉伺服框架。实验验证了单目视觉智能车伺服规律的有效性。  相似文献   

12.
宋薇  仇楠楠  沈林勇  章亚男 《机器人》2018,40(6):950-957
为实现通用性强、快速、准确的工业机器人6自由度零件抓取,提出了一种基于单目视觉引导的零件3维抓取方法.首先,采用按倾角分层的Chamfer距离匹配算法建立图像与待匹配模板的相似度函数,并运用爬山法局部优化的遗传算法搜索最优匹配结果;然后,通过CAD(计算机辅助设计)模型建立离线3D模板库,将匹配算法拓展到适用于复杂结构零件的空间6自由度位姿检测;最后,由各坐标系间的矩阵转换和系统标定得到机器人的抓取信息,从而实现零件的3维抓取.实验结果表明,优化后的位姿检测算法在匹配速度和准确性上均有所提升,且基于该检测算法的机器人3维抓取实验的位置误差在2 mm以内、转角误差在2°以内,可用于工业智能机器人的零件抓取.  相似文献   

13.
针对具有单目视觉的移动机器人,本文提出了一种基于单应性矩阵的视觉伺服控制算法,在缺乏深度信息的情况下利用视觉反馈实现了移动机器人的控制目标,即给定机器人目标位姿下拍摄得到的图像,通过视觉伺服使机器人从初始位姿准确到达目标位姿.视觉反馈环节采用单应性矩阵中的元素构造状态变量,而非利用常见的单应性分解,此外,考虑到视野约束,本文提出的算法在计算单应性矩阵时结合了单应性的传递特性,从而避免了参考目标的实时可见性.伺服环节设计了切换控制器,在满足非完整约束的同时可驱动机器人到达期望位姿.理论分析及实物仿真验证了该算法的可行性和有效性.  相似文献   

14.
为了避免机械臂自主抓取方法中普遍存在的运动学求逆耗时和视觉系统标定计算复杂度高的问题,提出一种基于高斯过程回归(GPR)和核岭回归(KRR)组合模型的机械臂抓取方法。在学习阶段,训练基于Mask-RCNN的目标检测和实例分割算法及GPR和KRR的机械臂抓取策略;在抓取阶段,首先使用目标检测和实例分割算法获取目标物体的位姿,然后根据目标物体位姿和机械臂关节角的映射关系,结合GPR和KRR的组合模型预测出机械臂关节角并控制机械臂完成抓取任务。实验结果表明:所提出的方法无需视觉系统的标定和机械臂运动学求逆,能够准确地获取目标物体的位姿,AUBO i5机械臂验证,本方法能够实现对目标物体较为准确的抓取。  相似文献   

15.
为解决双目视觉末端位姿检测中光照、噪声干扰等外部因素造成的检测精度降低问题,提出一种改进PROSAC (Progressive Sample Consensus)算法的水果分拣并联机器人双目视觉末端位姿检测方法。基于ORB算法进行特征提取和立体匹配;采用改进的PROSAC算法对立体匹配进行提纯,该改进通过穿插取点和预检验候选模型克服PROSAC算法存在的模型参数估计精度不高和验证错误候选模型耗时问题;将提纯后的匹配点对代入双目视觉模型求出末端位姿。实验结果表明,与未改进PROSAC算法的末端位姿检测方法相比,改进PROSAC算法的并联机器人末端位姿检测方法,其位姿各分量x、y、z、γ的误差平均绝对值分别降低了53.9%、65.5%、66.9%、47%,误差标准差分别降低了53.2%、67%、66.6%、56.6%,验证了所提出方法的有效性。  相似文献   

16.
苏杰  张云洲  房立金  李奇  王帅 《机器人》2020,42(2):129-138
针对机器人在非结构化环境下面临的未知物体难以快速稳定抓取的问题,提出一种基于多重几何约束的未知物体抓取位姿估计方法.通过深度相机获取场景的几何点云信息,对点云进行预处理得到目标物体,利用简化的夹持器几何形状约束生成抓取位姿样本.然后,利用简化的力封闭约束对样本进行快速粗筛选.对抓取位姿的抓取几何轮廓进行力平衡约束分析,将稳定的位姿传送至机器人执行抓取.采用深度相机与6自由度机械臂组成实验平台,对不同姿态形状的物体进行抓取实验.实验结果表明,本文方法能够有效应对物体种类繁多、缺乏3维模型的情况,在单目标和多目标场景均具有良好的适用性.  相似文献   

17.
为实现智能化柔性化焊接,并解决焊件本身立体结构遮挡焊缝影响视觉引导的问题,提出一种基于物体识别与位姿估计思想的焊接机器人视觉引导方法.首先,通过焊件的CAD模型离线建立焊接模型库;然后,在线计算焊件点云的VFH特征,与焊接模型库进行比对实现焊件识别,计算FPFH特征实现SAC-IA和ICP结合的两步位姿估计,并通过假设验证优化结果;最后,利用焊接模型库的焊接信息结合焊件位姿生成焊接轨迹,为焊接机器人提供视觉引导.实验结果表明,所提方法可以利用目标整体三维信息准确识别焊件并估计其姿态,进而引导机器人完成智能柔性的焊接操作.  相似文献   

18.
为实现机器人网络遥操作系统中从端机器人和被抓取目标接触前的力觉感知效果,提出了具有虚拟力 觉导引功能的机器人网络遥操作系统控制方法.利用单目视觉技术获得末端执行器相对于被抓取目标的位姿信息, 并将此信息转换为操作者相对敏感的力反馈信息,引导操作者为远端机器人系统提供合适的控制命令,控制机器人 达到期望的位姿.利用手腕相机和人工目标搭建了演示实验系统,并分别进行了机器人位置和姿态遥操作控制实 验.实验结果表明,机器人遥操作系统的可操作性和操作效率有了明显提高.  相似文献   

19.
室内移动机器人的视觉定位方法研究   总被引:6,自引:1,他引:6  
潘良晨  陈卫东 《机器人》2006,28(5):504-509
针对地图未知的室内环境下的定位问题,提出了一种基于特征跟踪的视觉里程计方法.利用单目摄像头提取和跟踪环境特征点集,进而根据观测模型利用扩展卡尔曼滤波算法估算出机器人的位姿.办公室环境中的定位实验证明了方法的有效性.  相似文献   

20.
针对移动机器人难以单纯依赖自身传感器定位的问题,提出了一种分布式感知协作的扩展Monte Carlo定位方法.在定位过程中,机器人根据感知更新前后采样分布信息熵、有效采样数目及采样分布均匀性的变化,适时地从环境传感器的检测模型进行重采样,从而有效减少其位姿估计的不确定性.在算法的具体实现过程中,采用彩色摄像头作为环境传感器,摄像头的参数由机器人进行在线标定;然后依据标定的参数获得摄像头的检测模型.实验验证了该算法在解决全局定位和机器人绑架问题时的有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号