共查询到10条相似文献,搜索用时 15 毫秒
1.
2.
目的 针对传送带输送产品过程中,机器人动态抓取产品的位姿数据计算问题,提出一整套基于智能相机和编码器检测的位姿数据计算方法。方法 首先搭建一套相机检测和机器人动态抓取系统模型,介绍抓取系统的构成及其工作过程;其次,为抓取系统创建各个坐标系,详细介绍各个坐标系间的变换关系、矩阵模型及需要标定的量;再次,设计标定量的测算过程和计算公式;最后,搭建以三菱工业机器人、欧姆龙智能相机及编码器等核心部件为主的实验样机,对上述位姿数据计算方法进行测试和验证。结果 实验结果表明,产品位姿数据的计算值与实测值之间的误差低于0.4 mm。结论 基于视觉和编码器检测的机器人动态抓取精度符合工程应用要求。 相似文献
3.
4.
目的 为提高企业工件的码垛效率,降低工人劳动强度,搭建工业机器人视觉码垛实验系统.方法 在对工业机器人运动学模型分析的基础上,通过相机坐标系和末端坐标系的坐标关系,得到工业机器人末端执行器的位置和姿态信息.结果 提出了基于工件位置坐标的图像剔除算法,实现了多余工件图像的剔除.通过旋转平移矩阵计算待码垛工件的实际位置,并将此位置作为视觉校正后的工业机器人抓取工件位置.结论 实验结果显示改进后系统的重复性定位精度在x,y方向上均有显著提高,验证了工业机器人视觉码垛系统模型的准确性. 相似文献
5.
目的 解决传统机器视觉机器人抓取系统对多目标及复杂目标背景分割不精确导致的目标定位精度差而影响机器人抓取效率的问题,提出一种新的深度学习抓取识别定位系统。方法 搭建由Delta机械臂、PC上位机、双目相机等组成的硬件系统,对工业部署常用的YOLO系列算法进行对比研究。将YOLO与U-NET相结合,用于目标的检测和分割。在精确分割出属于目标和背景目标的像素区域的同时,计算边缘和中心位置信息,运用立体视觉技术得到三维位置,并转换为世界坐标系,由PC机引导机械臂去完成抓取任务。结果 深度学习目标检测和图像分割相结合的系统在较复杂背景、多目标的场景下比未添加图像分割的算法拥有更好的目标定位精确度。结论 YOLOv5和U-NET相结合的目标定位抓取方法具有较高的鲁棒性,达到了并联机械臂的抓取要求。该方法能够运用于其他多自由度机械臂上,具有良好的应用价值。 相似文献
6.
以SCARA机器人、机械夹爪、摄像机CCD为硬件基础,搭建了基于单目视觉的SCARA机器人自动识别和定位插件系统平台,并利用摄像机参数标定和建立的抓取系统参数化模型,将CCD摄像机获取的工件图像坐标信息转化为机器人坐标系下的抓取位置信息。本系统以Visual studio软件为开发平台,利用OpenCV视觉数据库函数进行颜色识别与定位算法开发,经测试,该视觉算法能够实现工件的颜色识别和获取工件的位置信息,并控制机器人夹爪进行目标工件的精确抓取,满足了一般工业生产中抓取工件实时性的要求。 相似文献
7.
通过eye on hand模式,对上下料机器人配置双目视觉系统,将获得的图像进行处理后,判断工件的尺寸、位姿等信息,为上下料操作提供数据支持,使其能准确抓取工件。本文根据双目测量的理论基础,利用Harris角点算法获取零件的角点,对左右相机获取的图像进行区域匹配操作,进而获得工件的特征信息。最后,利用MATLAB对工件进行特征的提取和测量实验,为后续的研究工作提供了基础。 相似文献
8.
基于模型的水下机器人视觉悬停定位技术 总被引:3,自引:0,他引:3
根据7000米载人潜水器水下作业的需要和特点,提出了一种基于单目视觉位姿测量原理的水下机器人悬停定位方法,构建了包含水下目标识别与跟踪、三维位姿计算及水下机器人控制三项关键技术的水下演示实验系统。以自行研制的水下机器人控制系统实验研究平台为实验载体,以4个按正四面体分布的小球构成的合作目标为观察目标,在室内实验水池中实现了水下机器人悬停与定位演示实验。实验结果显示,系统能够弓I导机器人运动到指定位姿并实现稳定的悬停和定位。该项研究为基于模型的单目视觉三维位姿测量技术开辟了水下机器人应用新领域。 相似文献
9.
为实现视觉工业机器人的目标识别与抓取,该文基于YOLOv4算法进行了研究,搭建了结合视觉机器人的目标抓取试验平台。采用深度可分离卷积替换YOLOv4特征提取部分及中间层的标准卷积,降低参数量,提高网络速度,以实现目标的快速识别。利用改进的D-YOLOv4网络构建D-YOLOv4-grasp抓取预测网络,同时采用五参数表示法检测目标的抓取位姿,并进行了试验验证。研究结果表明,采用改进的D-YOLOv4目标检测算法和D-YOLOv4-grasp抓取预测网络,可以实现视觉工业机器人的目标快速识别与抓取。 相似文献
10.
《中国测试》2017,(4):56-62
该文提出一种基于多传感信息融合技术进行机器人运动学标定的方法。首先通过对机器人的指数积(POE)正向运动学模型取微分的方式建立末端执行器的误差模型,利用ROMER-RA7520绝对关节臂测量机和安装在末端工具上的多个传感器分别采集末端执行器的位置和姿态信息;随后根据坐标统一原理将测量机的位置测量数据和多传感器的姿态量测数据转换到机器人基础坐标系下,实现位姿数据的空间配准;接着运用自适应加权融合算法融合处理经过空间配准后的位姿数据,得到末端执行器位姿测量值;最后应用迭代最小二乘法求解出参数偏差。KR5arc机器人标定仿真实验表明:该方法可大幅度提升机器人在任意位姿下的定位、定姿精度。 相似文献