首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 203 毫秒
1.
机器视觉技术给传统工业带来了深刻的变革。对机器视觉的并联机器人抓取系统的快速标定进行了研究,该机器人抓取系统的标定主要包括相机的标定和人机(相机与机器人)标定。该标定装置的硬件采用德国Basler Ace系列的工业相机和Delta机器人本体。相机标定软件使用C#编程工具通过调用图像处理软件HALCON的函数库开发图像处理软件,实现了对相机的标定。人机标定使用开放式软件平台CODESYS开发了机器人人眼标定变换模块。实测结果表明:该标定方法方便快捷、运行可靠、稳定。  相似文献   

2.
《锻压技术》2021,46(8):180-185
随着工业机器人和机器视觉技术的发展和应用,将二者相结合,研发出适合锻造工况的由机器视觉引导的机器人自动上料系统。该系统由工业机器人、电磁铁机构、视觉相机、控制系统和照明系统5部分组成,经过工况设定、拍照、数据处理、定位等流程,最终引导机器人从料箱自动抓取冷态的棒料,并搬运至锻造线加热单元。详细地说明了如何处理由于光线影响造成的拍照识别问题、机器人与视觉系统坐标系的标定与转换、视觉处理流程、夹持系统定位与容错处理、空抓问题的分析处理等。本系统在半年的应用过程中,经过不断地调整优化,取料成功率大于99%,应用结果证明了该系统具有可靠的稳定性和安全性。  相似文献   

3.
工业机器人分拣技术的实现   总被引:9,自引:0,他引:9  
以MOTOMAN-UP6机器人为基础,构建了一个基于机器视觉的机器人分拣实验系统.该分拣实验系统由机器人、PC机、相机、图像采集卡、传送带和自开发的分拣控制软件组成.系统的工作原理和工作过程为:当目标对象源源不断地进入分拣作业区时,通过相机连续自动地获取作业对象图像,然后由软件对采集到的图像进行运算分析、变换目标对象坐标、识别目标对象分类信息、维护分拣目标的运动踪迹,最终控制机器人实现分拣动作."单目标跟踪--抓取--搬运"实验和"多目标跟踪--抓取--搬运"实验证明了该技术的意义和实用价值.  相似文献   

4.
为了满足生产制造过程中物料无序分拣的需要,设计基于机器视觉的机器人作业目标定位系统。利用Qt开发人机交互界面,实现图像采集处理、通信和机器人运动控制功能。对图像进行阈值分割等处理,得到理想工作区域。通过机器人视觉系统标定实现相机像素坐标和机器人基坐标之间的转换,得到机器人坐标系下的工件位姿识别。在机器人目标抓取平台上随机摆放一定数量的工件进行数据采样,结果表明:系统准确度以及速度具有优势。  相似文献   

5.
随着现代智能制造的快速发展,金属增材制造、绿色再制造、焊接等领域大量使用机器人等自动化装备,视觉传感是机器人智能制造的关键环节.针对上述需求设计了一套基于线结构光的视觉传感器,并对其进行标定,自主开发了用于机器人激光增材制造的机器视觉系统.该系统通过Matlab相机标定工具包实现相机的内外参数标定,利用Labview编...  相似文献   

6.
提出一种小型机器人分拣搬运系统的设计和研制方法。它基于机器视觉识别技术对工件进行辨识,用四自由度机器人进行搬运和分拣。主要研究内容有分拣系统的总体设计、部件和附件的设计、视觉系统的基本原理和编程、四自由度机器人的示教以及I/O通信和编程等。该系统己应用,效果良好。  相似文献   

7.
针对机器人分拣系统对工件摆放位置要求高的问题,研究开发了一套基于机器视觉的机器人分拣系统。阐述了该系统的组成和工作流程,搭建了基于机器视觉的机器人分拣系统实验平台,提出了一种适用范围广的快速手眼标定方法,采用机器视觉技术对摆放在相机视野范围内任意位置的工件进行定位并分类,通过TCP通信协议将定位分类信息发送给机器人,从而引导机器人对工件进行分拣。最后,进行了多次分拣实验,结果表明,该系统可对任意位置的工件进行分类,自动化程度高。  相似文献   

8.
针对工业机器人在搬运工件过程中容易出现拾取位置偏差的问题,以MOTOMAN-SV3X机器人为对象,研究开发了具有视觉定位及位置调整功能的工业机器人搬运系统。介绍了该系统的组成、工作流程、机器人位姿描述,并提出一种解决拾取位置偏差问题的方法,为机器人搬运技术提供了一套自动化、柔性化的应用方案,从而提高搬运精度和效率。  相似文献   

9.
为解决工业自动化生产中的自动分拣问题,以工业机器人与海康威视MV-CA013-20GM型工业智能相机为基础,设计了一个基于机器视觉的物料自动分拣系统。利用OpenCV完成了相机的标定,并基于物料位置坐标提出了图像去重复算法。对原始图像进行预处理后,以匹配子图和模板图像灰度值的相关函数、归一化相关匹配准则为基础,提出了多阈值模板匹配算法实现对分拣对象的快速识别。实验结果表明:该分拣系统稳定可行,能满足实际生产中对传送带上的物料进行自动分拣的需要,提高了生产线的自动化和智能化水平。  相似文献   

10.
为了解决当前机器人视觉系统精度不稳定和单位作业时间过长,且缺乏自动补偿功能的不足,文章分别从系统硬件结构改进和软件算法优化的角度出发,提出了基于三目视觉的机器人视觉系统。首先,搭建PLC感应器、机器人和视觉PC之间的逻辑通信通道,达到材料运行状态实时获取与处理的目的。然后,根据机器人与视觉坐标系之间的缩放旋转平移参数,设计9点标定法,对三个工业相机进行标定,达到图像像素坐标与机器人世界坐标的精准绑定。最后,根据产品工程基准,选取感兴趣区域,优化最小均方误差匹配算法,达到系统精度与速度的平衡。实验测试结果显示:与当前机器人视觉系统相比,文中系统拥有更高的视觉准确度与作业效率。  相似文献   

11.
熊隽  陈运军  陈林 《机床与液压》2020,48(15):66-71
以柔性智能制造生产线为研究对象,介绍一种利用ABB机器人虚拟软件设计出的虚拟系统方案。该系统是由3台机器人、4台数控机床及多种设备组成的智能制造生产线仿真系统,该生产线的3台机器人与设备之间能协调运作,可按产品加工工艺,依次进行加工、打磨、清洗、检测、装箱动作,实现无人化生产。创建了各设备的机械装置和Smart组件,以实现系统与组件之间I/O信号连接,编写了机器人运行程序,并规划其运行路线,最终实现仿真系统的运行。该虚拟系统与实际生产同步,以真实的汽车端盖零件为加工实例,为设计者提供了理论依据和试验平台,缩短了现场调试时间,降低了生产线设计、调试和改进的成本,并可用于指导现场生产。  相似文献   

12.
针对传统离线编程系统通用性差、可靠性低和二次开发难度大等问题,开发一套基于机器视觉的工业机器人离线编程系统。基于模块化思想,将该系统划分为机器视觉模块、虚拟环境模块、运动学模块、轨迹规划模块、离线程序模块和外部通信模块。借助机器视觉模块解构视觉系统与机器人末端位姿的坐标映射关系,得到规划机器人运动所需的位姿数据;基于虚拟现实建模语言构建机器人虚拟仿真环境,基于运动学模块与轨迹规划模块将位姿数据转化为机器人的作业〖JP2〗指令;基于离线程序模块与外部通信模块实现控制器指令与虚拟仿真环境的无缝衔接。最后,以一种六轴工业机器人为测试对象验证了该离线编程系统的基本功能。实验结果表明:该系统定位误差最大为0.4 mm,精度高,可满足工业应用需求。  相似文献   

13.
基于单目视觉提出了工业机器人拆垛系统构想。为实现工业机器人视觉拆垛系统中机器人精确运动控制与工件位姿识别,运用D-H位移矩阵法建立了机器人运动学模型,得到机器人末端相对机器人坐标系的位姿信息。基于形状模板匹配法提出目标图像识别算法,得到各个目标图像在相机坐标系下的位姿信息;将三维视觉模型与机器人运动学模型进行信息融合,建立机器人视觉拆垛控制系统数学模型。基于CCD工业相机、4-DOF工业机器人搭建视觉定位抓取实验系统。通过对空间目标进行抓取的实验,验证基于单目视觉的工业机器人拆垛系统的正确性、精确性、鲁棒性。  相似文献   

14.
机器人视觉伺服在智能控制领域有着广泛的应用。为了解决摄像机标定影响机器人视觉伺服精度的问题,研究一种无标定的视觉伺服控制系统。采用基于图像的视觉伺服方法,基于机器人仿真工具箱和视觉仿真工具箱,在Matlab/Simulink环境下建立了图像反馈机器人手眼视觉伺服系统Simulink模型。仿真结果表明:所构建的机器人视觉伺服系统对于正弦波动目标的跟踪定位,反映较快、精度较高,能较好地满足工程应用要求。  相似文献   

15.
更加自然和灵活的手势识别技术正逐渐成为智能移动机器人控制的重要人机接口。为了进一步提高基于计算机视觉的机器人导航控制的实时性和精度,提出了一种基于主成分分析(Principal Component Analysis,PCA)降维结合机器学习算法的手势识别方法。首先,对视觉摄像头捕获的手势图像进行预处理,具体包括图像二值化、中值滤波和形态学变换。然后通过PCA提取主要特征并对数据进行降维。最后结合机器学习中自组织神经网络(Self-Organizing Feature Maps,SOM)作为分类器应用于手势识别,具体采用的是学习向量量化(Learning Vector Quantization,LVQ)神经网络。静态手势实验测试结果表明:相比网络和K-means算法,提出方法缩短了手势识别时间,且识别准确率得到有效提高,验证了方法的有效性。  相似文献   

16.
在智能制造领域,视觉机器人应用前景十分广阔。视觉机器人的手眼标定精度直接关系到机器人的后续作业精度。为了进一步提高机器人的手眼标定精度,现提出一种基于Adam优化算法的双目Eye-to-Hand型机器人的手眼标定方法。根据多体运动学理论,建立了6DOF机器人手眼标定数学模型,以Halcon输出的手眼标定矩阵为初始值,采用Adam优化算法对目标函数进行迭代求解,将由优化前后手眼矩阵得到的两组机器人末端坐标系的位姿分别与从示教器得到的位姿作差值,并取Frobenius范数。结果表明:相机标定误差为0.089个像素,优化后的Frobenius范数平均值小于优化前,且一致性好。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号