首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
为了辅助公安人员更好地完成排爆工作,设计和开发了一个带双目立体视觉系统的排爆机器人。该视觉系统使用Matlab7.0和机器视觉软件EVision的EasyMatch库进行开发,能实时捕获排爆机器人周围的图像信息、进行摄像机标定、图像预处理、立体图像匹配、求取可疑目标物的特征点的立体坐标,并把图像实时显示在控制台,控制排爆机器人准确地抓取可疑目标物。该机器人视觉系统成功地抓取实验,表明了它在精度上能够满足排爆机器人的项目要求。  相似文献   

2.
研究和开发一个双目视觉系统用于智能排爆机器人的自动控制。该系统利用计算机双目视觉原理,采用Matlab 7作为运算引擎,调用机器视觉软件eVision 6.2进行立体匹配,实时捕获图像,进行摄像机标定、图像预处理和匹配,确定可疑目标物的坐标,把图像实时显示在控制台,并通过xPC目标系统实现该机器人实时控制系统,自动控制手臂靠近并准确抓取可疑目标物。排爆机器人的抓取实验表明,该双目立体视觉系统在精度上能满足排爆要求。  相似文献   

3.
于涵  李一染  毕书博  刘迎圆  安康 《计算机工程》2021,47(1):298-304,311
在传统基于固定视觉的排爆机器人抓取系统中,相机视觉易被遮挡且不能保证拍摄清晰度。基于随动视觉技术,提出一种将深度相机置于机械手末端并随机械手运动的排爆机器人自主抓取系统。利用深度相机计算目标物体的三维坐标,采用坐标转换方法将目标物体的位置坐标信息实时转换至机器人全局坐标系,并研究相机坐标系、机器人全局坐标系与末端执行器手爪工具坐标系三者的动态映射关系,实现排爆机器人的自主抓取。实验结果表明,与传统固定视觉方法相比,随动视觉方法可在误差2cm内,使得机器人机械手爪准确到达目标物体所在位置,且当机器人距离目标物体100cm~150cm时,抓取效果最佳。  相似文献   

4.
排爆机器人控制可分为小车的行走控制和机械手的运动控制。小车的行走控制需要进行“路程规划”以实现小车避障和向目标物(可疑爆炸物)靠近,而机械手的运动控制需要进行“轨迹规划”以避开障碍物实现避碰,顺利抓取、搬运目标物。此机器人控制系统是开放式系统,实现了智能化和网络化。远程管理机房电脑可以显示现场机器人手爪、目标物、障碍物。  相似文献   

5.
基于双目立体视觉的机械手精确定位系统   总被引:2,自引:0,他引:2  
汪伟  罗飞  蒋梁中  祁亨年 《微计算机信息》2007,23(20):210-211,65
在机械手执行任务的过程中,控制机械手定位到目标位置是一个非常的机械手自动定位系统设计方法,由双目立体视觉系统根据目标物的二维图像计算出目标物的三维坐标,然后根据此三维坐标去控制机械手自动运动到目标位置.实验表明该系统能提高排爆机器人机械手的易操作性,大大提高了机械手的性能  相似文献   

6.
1引言 机器视觉是研究计算机模拟生物宏观视觉功能的科学和技术,即用摄像机和计算机等机器代替人眼对目标进行测量、跟踪和识别,并加以判断。主要应用于如工业检测、工业探伤、精密控制、自动生产流水线、邮政自动化、粮食优选、显微医学操作,以及各种危险场合工作的机器人等。随着高新技术在机器人研究中的深入应用,智能机器人逐渐成为机器人研究领域的主流,其中智能机器人的视觉系统是一个重要的组成部分,对它的研究也越来越多。本文中的系统主要是利用VC智能摄像机进行图像采集,并对采集到的图像进行处理,确定目标物的位置,并将此信息传递给PLC,由其控制机械手准确地抓取该目标物。  相似文献   

7.
双目立体视觉的目标识别与定位   总被引:2,自引:0,他引:2  
双目立体视觉系统可以实现对目标的识别与定位.此系统包含摄像机标定、图像分割、立体匹配和三维测距4个模块.在摄像机标定部分,提出了基于云台转角的外参数估计方法.该方法可以精确完成摄像头旋转情况下外参的估计,增强了机器人的视觉功能.并利用广茂达机器人系统,基于改进的双目视觉系统进行目标识别与定位,以此结果作为依据控制机器人的手臂进行相应运动,最终实现了对目标物体的抓取,验证了提出方法的可行性.  相似文献   

8.
付睿云 《软件》2022,(11):94-97
针对传统工业机器人预先示教或单目视觉引导应用的局限性,提出一种基于双目立体视觉的机器人定位系统设计,获取目标物体在空间中的三维信息。该系统设计基于ABB机器人执行系统,使用TCP触碰标定板的方式完成双相机的标定,采用SIFT斑点算法获取工件的特征,结合Opencv3.4.1库,基于图像特征点对左右相机获得的图像进行立体匹配,得到物体的三维点坐标,引导机器人实现抓取。  相似文献   

9.
基于双目视觉的工件定位与抓取研究   总被引:1,自引:0,他引:1  
针对生产制造过程中工件的自动定位、识别与抓取等问题,研究基于双目立体视觉的工件识别定位方法;对每个工件进行SIFT特征提取,采用模板匹配方法实现工件的识别.用形态学方法获得工件特征点的二维信息,结合双目立体视觉标定技术得到工件的三维坐标,为机器人抓取工件提供信息;在实验中,相机标定、匹配识别与三维定位程序在MATLAB环境中执行,应用MATLAB和VC++混合编程技术将获得的工件信息传递给机器人的控制程序,实现了机器人对工件的在线实时抓取.  相似文献   

10.
基于MatlabRTW的排爆机器人控制系统   总被引:4,自引:2,他引:4  
本文提出一种基于Matlab语言的排爆机器人控制系统的设计方案,使用SIMLINK仿真工具,分别设计了控制系统框图、控制信息流程图,并通过xPC目标系统实现了该机器人实时控制系统。实验结果表明,该控制系统能满足机器人自动抓取目标物体的实际要求。  相似文献   

11.
针对室内服务机器人在实际应用中的需求,提出一种结合三维点云分割和局部特征匹配的实时物体识别系统.该系统首先基于三维点云实现快速有效的物体检测,然后利用物体检测的结果定位物体在彩色图像中的区域,并采用基于SURF特征匹配的方法识别出物体的标识.实验结果表明,该系统可较好地满足室内服务机器人物体检测与识别的实时性和可靠性要求.  相似文献   

12.
基于NMI特征的Auto-Camshift算法及其应用   总被引:1,自引:0,他引:1  
杜霖 《计算机工程》2006,32(3):217-219,225
基于NMI特征及Camshift算法,提出了扩展Auto-Camshift算法,该算法分割得到目标物体,分别对每个物体进行Camshift运算,同时结合了物体归一化转动惯量特征对物体进行学习和辨认。该算法同Camshaft相比,增加了归一化转动惯量NMI这一以目标不变特征为识别基础的特征,同时实现了多物体识别、自主学习。在“富莱德”机器人系统上的试验结果证明所提供的算法在学习和识别系统中有很好的鲁棒性和实时性。  相似文献   

13.
以移动机器人视觉系统为背景,以单目视觉所需要的特征点为目标,提出一种基于颜色块和尺度不变特征点算子的实时特征提取方法;目标的定位分为色标定位和特征点定位两个过程,色标定位用来寻找在缩变图像上目标颜色块的重心点,特征点定位是在色标定位的基础上,切出小图像并提取目标的尺度不变特征点,根据极值特征点计算目标位置,为下一步的目标跟踪提供基础;实验结果验证了方法的有效性.  相似文献   

14.
一种用于彩色图像目标识别的自适应阈值分割方法   总被引:1,自引:0,他引:1  
机器人视觉系统利用颜色、形状等信息来识别环境目标,但是难点在于识别的鲁棒性和实时性的保证。采用移动机器人做平台,提出一种基于颜色学习的实时目标识别系统,并提出了一种目标颜色学习和分割算法,该算法基于自适应阈值分割图像,考虑环境的光照变化进行调整,改善了系统的实时性和鲁棒性。  相似文献   

15.
一种新型的并联机器人位姿立体视觉检测系统   总被引:1,自引:0,他引:1  
建立了一种并联机器人位姿立体视觉测量系统框架,主要包括图像采集与传输、摄像机标定、尺度不变量特征变换(SIFT)匹配、空间点重建和位姿测量五个部分。该系统基于SIFT,能够很好地处理图像在大视角有遮挡、平移、旋转、亮度和尺度变化时的特征点匹配,有较高的匹配精度,特别适用于对并联机器人多自由度和空间复杂运动的检测。最后使用该方法对并联机器人位姿检测做了仿真实验。  相似文献   

16.
17.
Ilkka  Tapio 《Pattern recognition》2003,36(12):2769-2779
Real-world scenes are hard to segment into (relevant) objects and (irrelevant) background. In this paper, we argue for view-based vision, which does not use segmentation, and demonstrate a practical approach for recognizing textured objects and scenes in office environments.

A small set of Gabor filters is used to preprocess texture combinations from input images. The impulse responses of the filters are transformed into feature vectors that are fed to support vector machines. Pairwise feature comparisons decide the classification of views.

We validate the approach on a robot platform using three different types of target objects and indoor scenes: people, doorways, and written signs. The general-purpose system can run in real time, and that recognition accuracies of practical utility are obtained.  相似文献   


18.
机器人足球视觉系统中的实时图像处理   总被引:5,自引:5,他引:5  
视觉系统是整个机器人足球系统的重要组成部分。根据机器人足球视觉系统的特点,提出基于游程长度编码(RLE)的实时快速图像处理算法。算法使用RLE对图像进行压缩,并且在处理阶段高效识别出图像中目标的尺寸和位置。压缩阶段算法的时间复杂度与图像尺寸成线性关系,图像处理阶段算法的时间复杂度与图像中目标的个数和每个目标所占的扫描行数成线性关系。  相似文献   

19.
《Advanced Robotics》2013,27(10):1057-1072
It is an easy task for the human visual system to gaze continuously at an object moving in three-dimensional (3-D) space. While tracking the object, human vision seems able to comprehend its 3-D shape with binocular vision. We conjecture that, in the human visual system, the function of comprehending the 3-D shape is essential for robust tracking of a moving object. In order to examine this conjecture, we constructed an experimental system of binocular vision for motion tracking. The system is composed of a pair of active pan-tilt cameras and a robot arm. The cameras are for simulating the two eyes of a human while the robot arm is for simulating the motion of the human body below the neck. The two active cameras are controlled so as to fix their gaze at a particular point on an object surface. The shape of the object surface around the point is reconstructed in real-time from the two images taken by the cameras based on the differences in the image brightness. If the two cameras successfully gaze at a single point on the object surface, it is possible to reconstruct the local object shape in real-time. At the same time, the reconstructed shape is used for keeping a fixation point on the object surface for gazing, which enables robust tracking of the object. Thus these two processes, reconstruction of the 3-D shape and maintaining the fixation point, must be mutually connected and form one closed loop. We demonstrate the effectiveness of this framework for visual tracking through several experiments.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号