首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
张栩 《微型电脑应用》2011,27(1):28-30,5
针对室外移动机器人定位、导航问题,提出了一种基于全景近红外视觉的路标定位系统。系统通过近红外主动照明降低了光照变化、阴影等因素的影响,利用全景摄像机获得大范围的路标定向信息。图像处理中改进大津法和路标跟踪的应用使识别路标更准确、更快速,三角定位算法确保能精确的计算出机器人的世界坐标。室外环境下移动机器人的定位实验结果表明,本系统具有较高的定位精度和良好的鲁棒性。  相似文献   

2.
基于全景视觉与里程计的机器人自定位方法研究   总被引:8,自引:1,他引:8  
通过分析全景视觉与里程计传感器的感知模型的不确定性,提出了一种基于路标观测的移动机器人自定位算法. 该算法利用卡尔曼滤波器,融合多种传感器在不同观测点获取的观测数据完成机器人自定位.与传统的、采用单一传感器自定位的方法相比,它利用视觉和里程计的互补特性,提高了自定位的精度.实验结果证明了上述方法的有效性.  相似文献   

3.
陆军  穆海军  朱齐丹  杨明 《计算机应用》2007,27(7):1677-1679
研究一种基于全景视觉的机器人自主定位的方法。利用光学视觉原理,设计了一种全景视觉传感器,从而获得机器人周围环境的全方位景物的图像。通过去除全景图像的噪声、分割颜色阈值、计算中心点等处理,识别出机器人周围景物的已知路标,采用三角定位法,计算出机器人的坐标,从而为机器人的导航、避碰等任务奠定良好的基础。实验结果表明,此方法对于机器人自主定位具有一定的可行性。  相似文献   

4.
用于移动机器人的视觉全局定位系统研究   总被引:6,自引:1,他引:5  
魏芳  董再励  孙茂相  王晓蕾 《机器人》2001,23(5):400-403
本文叙述了用于移动机器人自主导航定位的一种视觉全局定位系统技术.该视觉定 位系统由LED主动路标、全景视觉传感器和数据处理系统组成.本文主要介绍了为提高全景 视觉图像处理速度和环境信标识别可靠性、准确性的应用方法,并给出了实验结果.实验表 明,视觉定位是具有明显研究价值和应用前景的全局导航定位技术.  相似文献   

5.
基于全景视觉的移动机器人同步定位与地图创建研究   总被引:8,自引:0,他引:8  
提出了一种基于全景视觉的移动机器人同步定位与地图创建(Omni-vSLAM)方法.该方法提取 颜色区域作为视觉路标;在分析全景视觉成像原理和定位不确定性的基础上建立起系统的观测模型,定位出 路标位置,进而通过扩展卡尔曼滤波算法(EKF)同步更新机器人位置和地图信息.实验结果证明了该方法在 建立环境地图的同时可以有效地修正由里程计造成的累积定位误差.  相似文献   

6.
研究全景视觉机器人同时定位和地图创建(SLAM)问题。针对普通视觉视野狭窄, 对路标的连续跟踪和定位能力差的问题, 提出了一种基于改进的扩展卡尔曼滤波(EKF)算法的全景视觉机器人SLAM方法, 用全景视觉得到机器人周围的环境信息, 然后从这些信息中提取出环境特征, 定位出路标位置, 进而通过EKF算法同步更新机器人位姿和地图库。仿真实验和实体机器人实验结果验证了该算法的准确性和有效性, 且全景视觉比普通视觉定位精度更高。  相似文献   

7.
移动机器人的一种室内自然路标定位法   总被引:3,自引:0,他引:3  
实时定位是移动机器人导航的一个基本前提。该文提出了一种利用墙棱边及墙平面(EdgeandPlane,EP)路标或者广义EP路标进行定位的方法,使用了异步数据融合的方法对移动机器人进行了定位。仅利用传感器对墙平面的距离数据进行测量就实现了机器人的定位。仿真显示这些方法能减少机器人的定位时间,提高对传感器测量数据的利用效率。  相似文献   

8.
嵌入式移动机器人视觉定位及地图构建系统设计   总被引:1,自引:0,他引:1  
设计了一种具有定位和导航功能的嵌入式移动机器人,采用双控制器协同工作模式并具有多种感知模块;在设计的嵌入式平台上进行了单目视觉定位和导航研究;通过彩色路标和电子罗盘实现对机器人的定位,分析了摄像机成像原理,给出了世界坐标系和图像坐标系的映射关系,简化了机器人定位的难度;通过超声波传感器旋转测距获得周围环境信息,对环境信息处理后建立地图的栅格模型;实验表明该定位方法能够准确提取路标的重心,具有较好的定位精度,减少了计算时间;通过超声波数据可以比较准确的建立环境模型,能够满足避障要求。  相似文献   

9.
朱齐丹  李科  雷艳敏  孟祥杰 《机器人》2011,33(5):606-613
提出一种使用全景视觉系统引导机器人回航的方法.利用全景视觉装置采集出发位置(Home位置)的全景图像,使用SURF(Speeded-Up Robust Feature)算法提取全景图像中的特征点作为自然路标点.机器人回航过程中,将当前位置获得的全景图像与Home位置的全景图像进行特征匹配,确定白然路标点之间的对应关系....  相似文献   

10.
针对助行机器人在室外未知环境中的导航需求,分析了不同导航方式的优缺点,设计并实现基于全球定位系统(GPS)的机器人定位导航系统.详细地描述了室外环境地图的创建过程和地图精度的控制.为了提高定位的精度,利用地图匹配修正GPS定位误差,同时融合机器人实时速度数据,得到最终的机器人位置.在机器人定位的基础上,实现助行机器人的...  相似文献   

11.
基于视觉和里程计信息融合的移动机器人自定位   总被引:1,自引:0,他引:1  
罗真  曹其新 《机器人》2006,28(3):344-349
受鸽子定向启发,将装备有全维视觉和里程计等传感器的自主移动机器人的自定位分为两种模式:全维视觉定位模式和里程计定位模式.机器人依据一定准则选择具体的主导定位模式:先试视觉定位,若视觉定位不可得或获得的视觉定位不可靠,则采用里程计定位.针对标记物信息失真问题,应用初步视觉定位结果反推标记物理论值,然后通过比较从原始图像中分离出的可能的标记物信息和反推出来的标记物信息理论值,滤除不可靠的视觉定位.针对运动过程中的机器人自定位,分析了影响定位准确性的信息时间延迟因素.  相似文献   

12.
基于人工路标和立体视觉的移动机器人自定位   总被引:2,自引:0,他引:2       下载免费PDF全文
针对室内移动机器人的自定位问题,提出一种基于人工路标和双目视觉的室内移动机器人自定位方法。首先设计了一种可扩展的彩色人工路标,并给出路标的编码方法;然后利用色彩空间变换,直线交比不变性以及自适应窗口实现路标检测与识别;最后在分析双目立体视觉模型的基础上建立起基于路标的双目立体视觉定位模型,实现移动机器人的准确定位。实验结果表明,路标对光照和视觉传感器的采集位置具有较强的鲁棒性,定位精度能够满足室内移动机器人的定位要求。  相似文献   

13.
This paper presents a method for estimating position and orientation of multiple robots from a set of azimuth angles of landmarks and other robots which are observed by multiple omnidirectional vision sensors. Our method simultaneously performs self-localization by each robot and reconstruction of a relative configuration between robots. Even if it is impossible to identify correspondence between each index of the observed azimuth angles and those of the robots, our method can reconstruct not only a relative configuration between robots using `triangle and enumeration constraints' but also an absolute one using the knowledge of landmarks in the environment. In order to show the validity of our method, this method is applied to multiple mobile robots each of which has an omnidirectional vision sensor in simulation and the real environment. The experimental results show that the result of our method is more precise and stabler than that of self-localization by each robot and our method can handle the combinatorial explosion problem. Correspondence to:T. Nakamura (e-mail: ntakayuk@sys.wakayama-u.ac.jp)  相似文献   

14.
A novel simultaneous localization and mapping (SLAM) technique based on independent particle filters for landmark mapping and localization for a mobile robot based on a high-frequency (HF)-band radio-frequency identification (RFID) system is proposed in this paper. SLAM is a technique for performing self-localization and map building simultaneously. FastSLAM is a standard landmark-based SLAM method. RFID is a robust identification system with ID tags and readers over wireless communication; further, it is rarely affected by obstacles in the robot area or by lighting conditions. Therefore, RFID is useful for self-localization and mapping for a mobile robot with a reasonable accuracy and sufficient robustness. In this study, multiple HF-band RFID readers are embedded in the bottom of an omnidirectional vehicle, and a large number of tags are installed on the floor. The HF-band RFID tags are used as the landmarks of the environment. We found that FastSLAM is not appropriate for this condition for two reasons. First, the tag detection of the HF-band RFID system does not follow the standard Gaussian distribution, which FastSLAM is supposed to have. Second, FastSLAM does not have a sufficient scalability, which causes its failure to handle a large number of landmarks. Therefore, we propose a novel SLAM method with two independent particle filters to solve these problems. The first particle filter is for self-localization based on Monte Carlo localization. The second particle filter is for landmark mapping. The particle filters are nonparametric so that it can handle the non-Gaussian distribution of the landmark detection. The separation of localization and landmark mapping reduces the computational cost significantly. The proposed method is evaluated in simulated and real environments. The experimental results show that the proposed method has more precise localization and mapping and a lower computational cost than FastSLAM.  相似文献   

15.
随着对足球机器人智能水平的要求进一步提高,机器人足球委员会将比赛场地的立柱、球门颜色取消.这使以前的基于球门、立柱地标的足球机器人自定位方法失效了.本文提出了一种利用了里程计、罗盘和全景摄像头多种传感器信息的视觉图像特征匹配的足球机器人自定位方法.首先,机器人通过里程计和罗盘取定一个可能位姿.然后,由视觉处理系统把机器人的可能位姿当作变换因子对实时拍摄到的场景图像作旋转、平移变换.最后,将变换后的图像中的白线与参考图像中的白线相比较,选择使图像匹配程度最大的变换因子作为机器人自定位的结果.实验结果表明该自定位方法达到了较高定位精度并能满足比赛的高实时性要求.  相似文献   

16.
一种基于MAP估计的移动机器人视觉自定位方法   总被引:2,自引:0,他引:2  
王珂  王伟  庄严 《自动化学报》2008,34(2):159-166
提出一种能够工作在三维路标环境中的视觉自定位系统. 机器人通过 MAP 估计器融合里程计和单向摄象机的图像信息递归估计其自身位姿状态. 本文构建了传感器的非线性模型并且在系统运行中嵌入和跟踪机器人运动和视觉信息的不确定性. 本文从概率几何观点阐述传感信息不确定性, 用 unscented 变换传播经过非线性变换的相关系统信息. 考虑到处理能力, 机器人在地图元素的投影特征附近提取相应图像特征并通过统计距离描述数据关联程度. 本文的一系列系统性实验证明了该系统的稳定性和精确性.  相似文献   

17.
Self-localization is the basis to realize autonomous ability such as motion planning and decision-making for mobile robots, and omnidirectional vision is one of the most important sensors for RoboCup Middle Size League (MSL) soccer robots. According to the characteristic that RoboCup competition is highly dynamic and the deficiency of the current self-localization methods, a robust and real-time self-localization algorithm based on omnidirectional vision is proposed for MSL soccer robots. Monte Carlo localization and matching optimization localization, two most popular approaches used in MSL, are combined in our algorithm. The advantages of these two approaches are maintained, while the disadvantages are avoided. A camera parameters auto-adjusting method based on image entropy is also integrated to adapt the output of omnidirectional vision to dynamic lighting conditions. The experimental results show that global localization can be realized effectively while highly accurate localization is achieved in real-time, and robot self-localization is robust to the highly dynamic environment with occlusions and changing lighting conditions.  相似文献   

18.
一种与模型无关的全向视觉系统标定方法   总被引:1,自引:0,他引:1       下载免费PDF全文
传统的全向视觉系统标定方法假设研究对象满足单视点成像模型且全向反射镜面各向同性,而在实际应用中上述假设往往并不成立,这会对标定精度带来很大的影响。针对全向视觉系统成像特点设计了一种新的与模型无关的标定方法,不需要研究对象满足上述约束,适用于对各种折反射式全向视觉系统的标定,具有较高的精度。将其应用于NuBot足球机器人全向视觉系统的标定后,较大地提高了机器人基于全向视觉的自定位精度,验证了标定方法的有效性和实用性。  相似文献   

19.
20.
Most current mobile robots are designed to determine their actions according to their positions. Before making a decision, they need to localize themselves. Thus, their observation strategies are mainly for self-localization. However, observation strategies should not only be for self-localization but also for decision making. We propose an observation strategy that enables a mobile robot to make a decision. It enables a robot equipped with a limited viewing angle camera to make decisions without self-localization. A robot can make a decision based on a decision tree and on prediction trees of observations constructed from its experiences. The trees are constructed based on an information criterion for the action decision, not for self-localization or state estimation. The experimental results with a four legged robot are shown and discussed.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号