首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
钟宇  张静  张华  肖贤鹏 《计算机工程》2022,48(3):100-106
智能协作机器人依赖视觉系统感知未知环境中的动态工作空间定位目标,实现机械臂对目标对象的自主抓取回收作业。RGB-D相机可采集场景中的彩色图和深度图,获取视野内任意目标三维点云,辅助智能协作机器人感知周围环境。为获取抓取机器人与RGB-D相机坐标系之间的转换关系,提出基于yolov3目标检测神经网络的机器人手眼标定方法。将3D打印球作为标靶球夹持在机械手末端,使用改进的yolov3目标检测神经网络实时定位标定球的球心,计算机械手末端中心在相机坐标系下的3D位置,同时运用奇异值分解方法求解机器人与相机坐标系转换矩阵的最小二乘解。在6自由度UR5机械臂和Intel RealSense D415深度相机上的实验结果表明,该标定方法无需辅助设备,转换后的空间点位置误差在2 mm以内,能较好满足一般视觉伺服智能机器人的抓取作业要求。  相似文献   

2.
为完成机械臂在非特定复杂背景环境下的自主抓取,通过设计RGB-D相机对场景内的物体进行实时检测,采用基于深度学习的目标检测定位方法,并对相机-机械臂-目标物体的三维标定模型进行研究。将物体的三维坐标信息通过ROS话题机制发送给机械臂,并通过moveIT编程规划抓取规划。 通过设计一套基于ROS的视觉检测和机械臂抓取系统,将计算机视觉检测技术以及机械臂运动规划抓取应用在机器人操作系统ROS平台上。实验结果表明,该系统可以实时高效地操作机器人来完成指定的控制作业,提高了系统对环境的适应能力,该系统具有抓取准确、物体识别准确率高的特点,解决了传统机械臂操控中的不足。  相似文献   

3.
针对传统机械臂局限于按既定流程对固定位姿的特定物体进行机械化抓取,设计了一种基于机器视觉的非特定物体的智能抓取系统;系统通过特定的卷积神经网络对深度相机采集到的图像进行目标定位,并在图像上预测出一个该目标的可靠抓取位置,系统进一步将抓取位置信息反馈给机械臂,机械臂根据该信息完成对目标物体的抓取操作;系统基于机器人操作系统,硬件之间通过机器人操作系统的话题机制传递必要信息;最终经多次实验结果表明,通过改进的快速搜索随机树运动规划算法,桌面型机械臂能够根据神经网络模型反馈的的标记位置对不同位姿的非特定物体进行实时有效的抓取,在一定程度上提高了机械臂的自主能力,弥补了传统机械臂的不足.  相似文献   

4.
付睿云 《软件》2022,(11):94-97
针对传统工业机器人预先示教或单目视觉引导应用的局限性,提出一种基于双目立体视觉的机器人定位系统设计,获取目标物体在空间中的三维信息。该系统设计基于ABB机器人执行系统,使用TCP触碰标定板的方式完成双相机的标定,采用SIFT斑点算法获取工件的特征,结合Opencv3.4.1库,基于图像特征点对左右相机获得的图像进行立体匹配,得到物体的三维点坐标,引导机器人实现抓取。  相似文献   

5.
为了辅助公安人员更好地完成排爆工作,设计和开发了一个带双目立体视觉系统的排爆机器人。该视觉系统使用Matlab7.0和机器视觉软件EVision的EasyMatch库进行开发,能实时捕获排爆机器人周围的图像信息、进行摄像机标定、图像预处理、立体图像匹配、求取可疑目标物的特征点的立体坐标,并把图像实时显示在控制台,控制排爆机器人准确地抓取可疑目标物。该机器人视觉系统成功地抓取实验,表明了它在精度上能够满足排爆机器人的项目要求。  相似文献   

6.
研究和开发一个双目视觉系统用于智能排爆机器人的自动控制。该系统利用计算机双目视觉原理,采用Matlab 7作为运算引擎,调用机器视觉软件eVision 6.2进行立体匹配,实时捕获图像,进行摄像机标定、图像预处理和匹配,确定可疑目标物的坐标,把图像实时显示在控制台,并通过xPC目标系统实现该机器人实时控制系统,自动控制手臂靠近并准确抓取可疑目标物。排爆机器人的抓取实验表明,该双目立体视觉系统在精度上能满足排爆要求。  相似文献   

7.
针对传统示教再现机器人仅能进行位置确定、轨迹固定的拆垛任务,局限于固定场景的问题,设计了一个基于视觉定位的机器人智能拆垛系统.该系统利用目标像素中心坐标转换求得对应世界坐标.针对眼在手外的安装相机方式,导致目标经图像处理算法求得的旋转角度可能由于相机自身的偏转而产生误差的问题,提出利用相机外参系数补偿目标旋转角度.最后设计拆垛策略,通信引导机器人以由近及远的抓取顺序执行拆垛任务,并无需人工干预自动完成整垛拆卸.经过实验数据表明,该系统可在未知工作场景中对未知位置目标进行抓取,位置误差可达1.1 mm,角度误差可达1.2°,堆垛一层定位时间为1.2 s左右,满足工业场景中对拆垛机器人的精度与效率需求.  相似文献   

8.
设计和开发了一个排爆机器人的双目立体视觉系统。该系统使用Matlab7.0和机器视觉软件EVision6.2的EasyMultiCam进行图像捕获并和EasyMath模式匹配库进行图像特征匹配,能实时捕获排爆机器人周围的图像信息、进行摄像机标定、图像预处理、立体图像匹配、求取可疑目标物的特征点的立体坐标,并把图中实时显示在控制台上,控制排爆机器人准确地抓取可疑目标物。该机器人视觉系统成功的抓取实验,表明了它在精度上能够满足排爆机器人的项目要求。  相似文献   

9.
基于双目立体视觉的机械手精确定位系统   总被引:2,自引:0,他引:2  
汪伟  罗飞  蒋梁中  祁亨年 《微计算机信息》2007,23(20):210-211,65
在机械手执行任务的过程中,控制机械手定位到目标位置是一个非常的机械手自动定位系统设计方法,由双目立体视觉系统根据目标物的二维图像计算出目标物的三维坐标,然后根据此三维坐标去控制机械手自动运动到目标位置.实验表明该系统能提高排爆机器人机械手的易操作性,大大提高了机械手的性能  相似文献   

10.
针对机器人示教编程方法导致的工件位置固定、抓取效率低下的问题,研究神经网络在机器人视觉识别与抓取规划中的应用,建立了视觉引导方案,通过YOLOV5神经网络模型开发视觉识别系统,识别物体的种类,同时获取待抓取物体定位点坐标。提出了机器人六点手眼标定原理并进行标定实验,提出了针对俯视图为圆形或长方形物体的定位方法。最后针对3种物体进行了180次的抓取实验,实验的综合平均抓取成功率约为92.8%,验证了视觉识别和抓取机器人系统具备实际应用的可能性,有效提高了抓取效率。  相似文献   

11.
针对机器人领域应用视觉进行目标物体抓取问题,提出了一种针对多目标背景下,新的深度优化处理方法.通过设定一个阈值块,以遍历成块的深度信息用类似聚类的方法,提出目标物体的具体坐标,传递给机器人手臂,完成准确的抓取操作.依次介绍了双目视觉原理、摄像机标定、双目矫正和双目匹配等内容,以及呈现出原始的深度信息图以及优化后的深度信息图,比较它们的差距.最后在实验中给出了证明:此种深度信息优化方法能够有效的提高机器人抓取目标物体的成功率.最后,还在文章最后给出了下一步的研究方向.  相似文献   

12.
采用工业相机、工业投影机、普通摄像头、计算机和机械臂开发了一套具有三维立体视觉的机械臂智能抓取分类系统。该系统采用自编软件实现了对工业相机、工业投影机的自动控制和同步,通过前期研究提出的双波长条纹投影三维形貌测量法获取了物体的高度信息,结合opencv技术和普通摄像头获取的物体二维平行面信息,实现了物体的自动识别和分类;利用串口通信协议,将上述处理后的数据传送至机械臂,系统进行几何姿态解算,实现了智能抓取,并能根据抓手上压力反馈自动调节抓手张合程度,实现自适应抓取。经实验证明该系统能通过自带的快速三维形貌获取装置实现准确、快速的抓取工作范围内的任意形状的物体并实现智能分类。  相似文献   

13.
为了提高机械臂抓取的精度,提出一种基于Mask R-CNN的机械臂抓取最佳位置检测框架。基于RGB-D图像,所提框架通过精确的实例分割确定抓取对象的类别、位置和掩码信息,由反距离加权法在去噪后的深度图上获取中心点的加权深度坐标,构成目标对象的三维目标位置,经坐标系转换得到最终的最优抓取位置。建议的框架考虑到目标对象的姿态与边缘信息,可以有效地提高抓取性能。最后,基于UR3机械臂上的抓取实验结果验证了该框架的有效性。  相似文献   

14.
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法.该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向...  相似文献   

15.
Learning to Recognize and Grasp Objects   总被引:1,自引:1,他引:1  
We apply techniques of computer vision and neural network learning to get a versatile robot manipulator. All work conducted follows the principle of autonomous learning from visual demonstration. The user must demonstrate the relevant objects, situations, and/or actions, and the robot vision system must learn from those. For approaching and grasping technical objects three principal tasks have to be done—calibrating the camera-robot coordination, detecting the desired object in the images, and choosing a stable grasping pose. These procedures are based on (nonlinear) functions, which are not known a priori and therefore have to be learned. We uniformly approximate the necessary functions by networks of gaussian basis functions (GBF networks). By modifying the number of basis functions and/or the size of the gaussian support the quality of the function approximation changes. The appropriate configuration is learned in the training phase and applied during the operation phase. All experiments are carried out in real world applications using an industrial articulation robot manipulator and the computer vision system KHOROS.  相似文献   

16.
研发了基于眼固定安装方式的机器人定位系统,提出了一种方便有效的手眼标定方法。通过最小二乘法求解手眼坐标的变换关系,再根据工作台平面与摄像机成像模型的约束关系,求解出目标物体的三维位姿,并最终实现了机械手的精确定位。  相似文献   

17.
Learning to Recognize and Grasp Objects   总被引:1,自引:0,他引:1  
Pauli  Josef 《Machine Learning》1998,31(1-3):239-258
We apply techniques of computer vision and neural network learning to get a versatile robot manipulator. All work conducted follows the principle of autonomous learning from visual demonstration. The user must demonstra te the relevant objects, situations, and/or actions, and the robot vision system must learn from those. For approaching and grasping technical objects three principal tasks have to be done—calibrating the camera-robot coordination, detecting the desired object in the images, and choosing a stable grasping pose. These procedures are based on (nonlinear) functions, which are not known a priori and therefore have to be learned. We uniformly approximate the necessary functions by networks of gaussian basis functions (GBF networks). By modifying the number of basis functions and/or the size of the gaussian support the quality of the function approximation changes. The appropriate configuration is learned in the training phase and applied during the operation phase. All experiments are carried out in real world applications using an industrial articulation robot manipulator and the computer vision system KHOROS.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号