首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 576 毫秒
1.
针对在多机器人协作和服务机器人目标追踪的过程中,需要对目标物体或者同伴进行准确的目标定位这个问题,设计了一个以ARM9微处理器为处理模块、CMOS摄像头为采集模块的一个嵌入式视觉系统,实现了单目视觉测距定位.该系统设计大体分为目标识别和定位两部分,目标标识使用一个纯色的色标块,通过对摄像头采集的图像中检测色标块区域来实现目标物体定位;对色标块的图像分割采用基于RGB三个颜色分量的阈值分割算法,单目测距采用P4P方法,其中,摄像机的内参数标定则借助于Matlab工具箱来完成.同时,采用RANSAC方法确定色标块的四条边界直线,以四条直线交点作为色标块的4个角点,从而提高角点检测的精度.实验结果表明,该测距定位系统定位精度较高,系统鲁棒性好,具有良好的应用前景.  相似文献   

2.
基于单目视觉的空间目标位置测量   总被引:1,自引:0,他引:1  
针对工业生产过程中工件等空间目标定位的问题,给出了一种采用直线与平面相交的定位方法。首先利用单目视觉获得目标的图像,然后利用成像的基本原理,以及直线与目标所在平面的交点来确定目标特征点的空间坐标,进而得到目标的位置信息。该方法原理简单,并通过实验表明:其定位精确性较高,还能很好地满足工业过程中的生产要求。  相似文献   

3.
为实现室内机器人自身精准定位,提出一种由粗匹配到精定位相融合的视觉定位方法.利用搭载在机器人上方的1台相机观测室内天花板、水平方向的4台相机观测周边环境,得到当前环境特征形成指纹信息库.定位时,将测试图像的周边环境信息与信息库中对应的信息粗匹配,得到机器人粗略位置;使用改进的GMS算法对测试图像及粗匹配结果中对应的天花板图像进行拼接,计算距离差与偏转度,得到精确位置.实验结果表明,该方法位移误差可控制在4 cm之内,偏转角误差在2.4°之内;对光照变化、行人闯入等情况鲁棒性明显,定位精度优于O RB视觉定位及指纹定位方法.  相似文献   

4.
在移动机器人视觉定位中,图像处理技术为摄像机标定和视觉定位奠定了基础.本文首先对机器人采集得到的目标图像进行灰度变换,将彩色的图像转换为灰度图像,利用中值滤波滤除目标图像中的孤立噪声点,再使用sobel算子提取图像的边缘,由于提取的边缘不清晰,最终使用改进的hough变换得到图像的清晰边缘.实验中利用matlab 7.5软件对图像进行处理,获取到准确的目标点像素.而要得到机器人在实际坐标系中的坐标,需要对摄像机进行标定,本文对直接线性标定算法进行改进,利用最小二乘法简化计算的过程,实现机器人视觉定位过程.实验结果表明,该方法简单且有效,提高了定位的准确度,验证了该方法在视觉定位中的有效性和可行性.  相似文献   

5.
提出一种基于亚像素精度的特征点提取算法,结合PnP方法和正交迭代(OI)算法计算乒乓球机器人本体的位姿.根据摄像机成像时弥散斑的近似高斯分布,以亚像素精度精确求取色标块的边缘,利用边缘直线交点得到高精度的角点作为特征点.基于PnP算法利用上述特征点求取机器人位姿的初值,再通过OI算法进行优化,以保证其姿态矩阵的正交性.实验结果表明,该方法能快速准确地实现机器人本体的位姿测量.  相似文献   

6.
针对集装箱顶角加强板的焊接特点,设计了一种基于结构光的自动焊缝定位方法。该方法主要有两个特点:一是将摄像机安装在机器人上,使光轴垂直工作平面,通过比较面积大小来获得深度信息,从而将三维信息的获取问题转化为二维信息的提取,并利用仿射变换获得空间信息;二是利用激光器与摄像机相配合的方式进行定位,由于激光束在焊接环境中的特征明显,可降低图像处理的难度。具体实现过程是利用两条线激光打在加强板的一个角上,在加强板和顶板之间的焊缝处出现转折,通过对激光条纹的有效处理,获得4对转折点的图像坐标,然后拟合直线求出加强板的焊接初始位置及方向,再结合事先制作的图像模板将加强板的其他特征点逐一求出。该系统有效地利用了激光器的优势,可靠地解决了加强板焊缝的自动定位问题。  相似文献   

7.
提出了一种新颖的基于运动视的定位方法.该方法从机器人接近的目标上选取两个特征点并根据它们的图像坐标确定机器人运动前后相对于目标的位姿.本文还提出了一种能够更准确地找出特征点图像坐标的搜索算法.试验结果表明该方法有较高的定位精度和较强的鲁棒性.  相似文献   

8.
为了提高微操作系统的装配精度,提出了一种基于形态学腐蚀算法和Hough变换的十字目标亚像素中心定位方法。首先通过选取适当的结构元素,分别对组成十字图像的垂直、水平方向的直线段进行腐蚀处理,得到含有十字中心信息的水平和垂直的两条行、列像素,行、列的相交点即为十字图像特征的中点;然后选取适当参数空间,对行、列进行Hough变换并将结果记入参数空间累加器,最后对区域内点进行加权平均处理,得到十字图像亚像素中心定位。实验结果表明:该方法具有定位速度快,定位精度高的优点。  相似文献   

9.
为了提高图像定位系统的识别精度,提出了一种改进采用形态学腐蚀算法和改进的空间矩算法的十字目标亚像素中心定位方法.首先通过选取适当的结构元素,分别对组成十字图像的垂直、水平方向的直线段进行腐蚀处理,得到含有十字中心信息的水平和垂直的两条行、列像素,行、列的相交点即为十字图像特征的中点;然后选取适当参数空间,对行、列进行空间矩算法得到亚像素,最后用最小二乘法得到十字图像亚像素中心定位.实验结果表明,改进方法具有定位速度快,定位精度高的优点.  相似文献   

10.
在摄像机以某一角度俯拍地面的情形下,根据透视透影的成像原理,推导了一个从地面各点到摄像机图像间的变换公式,也得到了从摄像机图像中各点到地面的变换公式。只要知道世界坐标系中两个点之间的相对位置及其在摄像机图像的位置,就可以得到从摄像机图像到地面坐标系变换关系,这两个变换互为逆变换,它们可以在机器人定位及其他应用过程中发挥重要作用。  相似文献   

11.
提出一种新的移动机器人泊位方法. 该方法采用一幅预先采集的参考图像定义机器人的期望泊位状 态(期望的位置和方向),利用尺度不变特征变换(SIFT)算法和基于双向BBF 的特征匹配算法实现泊位站当前图 像与参考图像之间的匹配以获取视觉反馈信息,基于极点伺服策略根据参考图像准直机器人,采用质心跟踪法防止 目标图像出视场,采用RANSAC 算法求解当前图像与参考图像间的仿射变换,利用一个末段控制策略实现精确泊 位.本文方法不需要环境模型或人工标记.室内环境下的实验结果证实了该方法的有效性.  相似文献   

12.
The control of a robot system using camera information is a challenging task regarding unpredictable conditions, such as feature point mismatch and changing scene illumination. This paper presents a solution for the visual control of a nonholonomic mobile robot in demanding real world circumstances based on machine learning techniques. A novel intelligent approach for mobile robots using neural networks (NNs), learning from demonstration (LfD) framework, and epipolar geometry between two views is proposed and evaluated in a series of experiments. A direct mapping from the image space to the actuator command is conducted using two phases. In an offline phase, NN–LfD approach is employed in order to relate the feature position in the image plane with the angular velocity for lateral motion correction. An online phase refers to a switching vision based scheme between the epipole based linear velocity controller and NN–LfD based angular velocity controller, which selection depends on the feature distance from the pre-defined interest area in the image. In total, 18 architectures and 6 learning algorithms are tested in order to find optimal solution for robot control. The best training outcomes for each learning algorithms are then employed in real time so as to discover optimal NN configuration for robot orientation correction. Experiments conducted on a nonholonomic mobile robot in a structured indoor environment confirm an excellent performance with respect to the system robustness and positioning accuracy in the desired location.  相似文献   

13.
针对环境亮度变化导致V-SLAM视觉里程计定位精度不准确的问题,提出一种基于改进ORB算法的视觉里程计定位方法.使用自适应阈值ORB算法提取特征点,提高特征提取的稳定性,通过FLANN进行粗匹配并采用PROSAC算法进行误匹配剔除,同时利用ICP方法进行图像配准求解位姿,使用光束法平差对轨迹图进行优化,采用TUM标准数...  相似文献   

14.
15.
针对现有室内移动机器人自定位方法中存在的定位精度不高,随时间积累定位误差增大,复杂室内环境下信号存在多径效应和非视距效应等问题,提出了一种基于蒙特卡罗定位(MCL)的新的移动机器人自定位方法。首先,通过分析基于无线射频识别(RFID)技术的移动机器人自定位系统,建立机器人运动模型;然后,通过分析基于接收信号强度指示(RSSI)的移动机器人自定位系统,提出机器人移动过程的观测模型;最后,针对粒子滤波定位执行效率不高的问题,提出粒子剔除策略和依据粒子方位赋予粒子权值策略,提高系统的定位精度和执行效率。仿真实验表明,机器人在移动过程中的自定位误差在X轴和Y轴方向上为3 cm,传统定位算法误差为6cm,新算法定位精度提高近1倍,且算法具有很好的鲁棒性。  相似文献   

16.
This article presents a fast self-localization method based on ZigBee wireless sensor network and laser sensor, an obstacle avoidance algorithm based on ultrasonic sensors for a mobile robot. The positioning system and positioning theory of ZigBee which can obtain a rough global localization of the mobile robot are introduced. To realize accurate local positioning, a laser sensor is used to extract the features from environment, then the environmental features and global reference map can be matched. From the matched environmental features, the position and orientation of the mobile robot can be obtained. To enable the mobile robot to avoid obstacle in real-time, a heuristic fuzzy neural network is developed by using heuristic fuzzy rules and the Kohonen clustering network. The experiment results show the effectiveness of the proposed method.  相似文献   

17.
移动机器人编队视觉定位方法研究   总被引:1,自引:1,他引:0  
该文提出一种基于视觉的移动机器人编队定位方法。该方法采用基于纹理的图象对机器人进行标识,然后使用纹理中的特征点对机器人的位置和姿态进行估计,使用最小二乘算法使估计结果误差最小。实验证明该方法能够有效地对编队的移动机器人定位,同时对环境干扰具有鲁棒性。  相似文献   

18.
The position and orientation of moving platform mainly depends on global positioning system and inertial navigation system in the field of low-altitude surveying, mapping and remote sensing and land-based mobile mapping system. However, GPS signal is unavailable in the application of deep space exploration and indoor robot control. In such circumstances, image-based methods are very important for self-position and orientation of moving platform. Therefore, this paper firstly introduces state of the art development of the image-based self-position and orientation method (ISPOM) for moving platform from the following aspects: 1) A comparison among major image-based methods (i.e., visual odometry, structure from motion, simultaneous localization and mapping) for position and orientation; 2) types of moving platform; 3) integration schemes of image sensor with other sensors; 4) calculation methodology and quantity of image sensors. Then, the paper proposes a new scheme of ISPOM for mobile robot — depending merely on image sensors. It takes the advantages of both monocular vision and stereo vision, and estimates the relative position and orientation of moving platform with high precision and high frequency. In a word, ISPOM will gradually speed from research to application, as well as play a vital role in deep space exploration and indoor robot control.  相似文献   

19.
掌纹图像处理方法的研究   总被引:3,自引:0,他引:3  
提出了一种利用图像方向信息提取掌纹特征纹线的方法。该方法将掌纹图像分成若干子块,充分利用子块中图像纹理的方向信息对掌纹图像进行滤波和增强处理;剔除图像中不含纹线的图像子块,对含有特征纹线的子块在其主方向上进行方向增强处理,突出特征纹线信息。对不同采集质量的掌纹图像的处理结果表明文中提出的方法是一种有效的掌纹图像处理方法,它可以应用于不同质量掌纹图像特征纹线的提取。  相似文献   

20.
In this paper, we consider the problem of controlling a 6 DOF holonomic robot and a nonholonomic mobile robot from the projection of 3-D straight lines in the image plane of central catadioptric systems. A generic central catadioptric interaction matrix for the projection of 3-D straight lines is derived using an unifying imaging model valid for an entire class of cameras. This result is exploited to design an image-based control law that allows us to control the 6 DOF of a robotic arm. Then, the projected lines are exploited to control a nonholonomic robot. We show that as when considering a robotic arm, the control objectives are mainly based on catadioptric image feature and that local asymptotic convergence is guaranteed. Simulation results and real experiments with a 6 DOF eye-to-hand system and a mobile robot illustrate the control strategy.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号