首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
针对常规机器人导航系统采用单一类型地形识别传感器,观察维度单一等问题,对煤矿井下探测搜救机器人地形感知系统进行研究,使用远近感知系统数据融合,提高机器人避障能力。由激光扫描仪采集的二维点云数据建立远距离地形信息,由Kinect相机采集的地形深度信息建立近距离地形信息。基于PCL模型,应用像素遍方法,实现观测信息的采集与云图像的构建。使用2.5维栅格地图构建方法得到近距离环境地形信息。使用Dijkstra算法进行了路径规划研究,建立了融合路径长度和地面危险度等级的目标函数。通过仿真研究验证了本文提出的最优路径减小机器人行走过程的俯仰角、侧倾角的波动幅度。  相似文献   

2.
语义地图在移动机器人的导航等任务中有着关键的作用。目前基于视觉的机器人自动定位和制图(SLAM)系统已经能够达到较高的定位精度要求,但是基于多目几何的视觉SLAM算法并未充分利用空间中丰富的语义信息,地图中保留的地图点信息只是没有语义的空间几何点。由于基于卷积神经网络的算法在目标检测领域取得了突破性的成绩,利用目前最新的基于卷积神经网络的目标检测算法YOLO,实现场景的实时目标检测,并结合SLAM算法构建语义地图。将视觉SLAM定位的精确性和深度神经网络在语义提取方面的优势相结合,既能够提高SLAM算法的准确性,同时采集到的丰富图像信息又能进一步训练更加深的神经网络。该算法能够应用于机器人的智能导航,同时也能作为数据采集器为其他视觉任务提供具备语义与几何信息的图像数据。  相似文献   

3.
为保证机器人在图书存取时,按照设定轨迹完成图书存取,研究基于环境信息实时感知的图书存取机器人移动轨迹检测方法。通过在机器人上搭载激光雷达设备,采集机器人移动环境三维点云数据;采用贝叶斯估计方法融合该数据后,基于图优化算法构建机器人移动地图;采用平滑接近图算法,检测机器人在地图中的移动方向角,结合机器人所有的方向角结果实现机器人移动轨迹检测。测试结果显示:该方法能可靠获取机器人移动环境的三维点云数据,清晰生成机器人移动地图,并呈现障碍物情况;机器人最大方向角度检测误差结果为1.23°;机器人的移动轨迹位置和指定位置结果吻合程度较高。  相似文献   

4.
机器人自主感知模型在网络机器人中的应用   总被引:1,自引:0,他引:1  
高振东  苏剑波 《机器人》2006,28(2):144-148
基于机器人自主感知模型(RAPM)构建了机器人系统,该系统可通过网络自主感知获得动态网络信息,实时建立路径,使机器人完成超出其视野范围的任务.机器人自主感知模型具有很强的扩展能力和合理的构架,突破了以往移动机器人仅使用自身传感器或使用网络固定传感器的局限,对提高基于Internet的机器人智能及其行为能力有重要意义.实验结果证明了机器人自主感知模型的可行性和有效性.  相似文献   

5.
面向对象的机器人仿真与监控系统   总被引:9,自引:3,他引:6  
通过对机器人的几何建模和运动学建模进行了研究,论述了使用VC6.0语言作为开发平台,以OpenGL三维显示技术完成三维可视化,以VRML作为外部机器人模型表示,实现运行时可交互的机器人三维实时图形仿真系统的开发技术与方法。系统通过网络与机器人控制器进行通信,实时接收机器人控制器发来的状态数据,将它们动态地以三维模拟方式显示,用户能够动态地监视机器人的运动状态,在必要时对机器人的动作进行控制,为其它机器人的研究提供通用的仿真与模拟平台。  相似文献   

6.
基于机器人服务任务导向的室内未知环境地图构建   总被引:3,自引:0,他引:3  
针对室内移动机器人的服务任务,提出一种包括全局语义层、区域规划层、局部空间层的3 级室内环 境地图,使机器人不仅掌握面向导航的环境平面结构,而且还了解局部复杂空间的3 维栅格地图及描述房间和物品 功能及关联、归属关系的语义信息.首先,机器人依据视觉获得的深度信息及QR 码标签提供的物品操作功能信息 进行3 维栅格地图和物品功能图的构建,形成局域层空间描述.其次,基于贝叶斯估计算法构建区域层的2 维栅格 地图,同时形成无向加权图,构成区域规划层.最后,基于谱聚类算法构建具有房间分割功能的拓扑地图,结合物 品功能图,获得房间功能及房间之间关联关系、物品与房间归属关系等的语义信息,形成全局语义拓扑地图.仿真 试验表明,环境地图的3 级结构适用于室内机器人的服务任务,可以理解人的语义命令,生成合理的服务路径,并 确保机器人在复杂环境中安全运行.  相似文献   

7.
针对室内环境下的机器人场景识别问题,重点研究了场景分类策略的自主性、实时性和准确性,提出了一种语义建图方法.映射深度信息构建二维栅格地图,自主规划场景识别路径;基于卷积网络建立场景分类模型,实时识别脱离特定训练;利用贝叶斯框架融合先验知识,修正了错误分类并完成语义建图.实验结果表明:机器人能够进行全局自主探索,实时判断场景类别,并创建满足要求的语义地图.同时,实际路径规划中,机器人可以根据语义信息改善导航行为,验证了方法的可行性.  相似文献   

8.
针对排爆作业的安全性、稳定性和实时性的要求,设计了一套基于以太网的排爆机器人测控系统.该系统由排爆机器人和遥操作控制器组成,排爆机器人作为服务器,遥操作控制器作为客户端,两者之间通过长距离增强型网线实现以太网通信.客户端对服务器进行请求控制,服务器向客户端提供视频、激光雷达点云数据和其他多种传感器信息,为操作人员提供了重要的环境感知信息.该系统能够准确、实时地完成排爆作业,具有较好的稳定性和可靠性.  相似文献   

9.
针对SLAM以及ROS系统的广泛应用,设计并制作了一种带有升降抓取结构的作业型全向移动机器人。该系统通过观测IMU与陀螺仪数据,得出机器人运动轨迹,对全向移动底盘进行运动学推导,动态计算出机器人运动时系统的实时位姿状态,利用激光雷达对未知环境进行二维激光扫描匹配,结合粒子滤波算法绘制栅格地图,设定系列目标点,经A*算法规划最优路径进行自主导航,完成指定任务。实验结果表明,该系统可构建精度较高环境地图,实现对机器人的有效定位,完成室内建图与自主导航等任务。  相似文献   

10.
通过研究激光雷达和视觉传感器融合SLAM,实现双目视觉传感器对单线激光雷达点云的补充,以提高建图精度。实现方案以2D激光雷达点云数据为主,双目视觉传感器作为激光雷达点云盲区的补充,搭建SLAM实验平台,完成机器人实时地图构建并获取当前位置信息,同时降低携带传感器的成本。  相似文献   

11.
目的 SLAM(simultaneous localization and mapping)是移动机器人在未知环境进行探索、感知和导航的关键技术。激光SLAM测量精确,便于机器人导航和路径规划,但缺乏语义信息。而视觉SLAM的图像能提供丰富的语义信息,特征区分度更高,但其构建的地图不能直接用于路径规划和导航。为了实现移动机器人构建语义地图并在地图上进行路径规划,本文提出一种语义栅格建图方法。方法 建立可同步获取激光和语义数据的激光-相机系统,将采集的激光分割数据与目标检测算法获得的物体包围盒进行匹配,得到各物体对应的语义激光分割数据。将连续多帧语义激光分割数据同步融入占据栅格地图。对具有不同语义类别的栅格进行聚类,得到标注物体类别和轮廓的语义栅格地图。此外,针对语义栅格地图发布导航任务,利用路径搜索算法进行路径规划,并对其进行改进。结果 在实验室走廊和办公室分别进行了语义栅格建图的实验,并与原始栅格地图进行了比较。在语义栅格地图的基础上进行了路径规划,并采用了语义赋权算法对易移动物体的路径进行对比。结论 多种环境下的实验表明本文方法能获得与真实环境一致性较高、标注环境中物体类别和轮廓的语义栅格地图,且实验硬件结构简单、成本低、性能良好,适用于智能化机器人的导航和路径规划。  相似文献   

12.
Semantic information can help robots understand unknown environments better. In order to obtain semantic information efficiently and link it to a metric map, we present a new robot semantic mapping approach through human activity recognition in a human–robot coexisting environment. An intelligent mobile robot platform called ASCCbot creates a metric map while wearable motion sensors attached to the human body are used to recognize human activities. Combining pre-learned models of activity–furniture correlation and location–furniture correlation, the robot determines the probability distribution of the furniture types through a Bayesian framework and labels them on the metric map. Computer simulations and real experiments demonstrate that the proposed approach is able to create a semantic map of an indoor environment effectively.  相似文献   

13.
室内环境中存在丰富的语义信息,可以使机器人更好地理解环境,提高机器人位姿估计的准确性。虽然语义信息在机器人同时定位与地图构建(SLAM)领域得到了深入研究和广泛应用,但是在环境准确感知、语义特征提取和语义信息利用等方面还存在着很多困难。针对上述难点,提出了一种基于视觉惯性里程计算法与语义信息相结合的新方法,该方法通过视觉惯性里程计来估计机器人的状态,通过校正估计,构建从语义检测中提取的几何表面的稀疏语义地图;通过将检测到的语义对象的几何信息与先前映射的语义信息相关联来解决视觉惯性里程计和惯性测量单元的累积误差问题。在室内环境中对装备RGB-D深度视觉和激光雷达的无人机进行验证实验,结果表明,该方法比视觉惯性里程计算法取得了更好的结果。应用结合语义信息和视觉惯性里程计的SLAM算法表现出很好的鲁棒性和准确性,该方法能提高无人机导航精度,实现无人机智能自主导航。  相似文献   

14.
G. Capi  M. Kitani  K. Ueki 《Advanced Robotics》2014,28(15):1043-1053
This paper presents an intelligent robotic system to guide visually impaired people in urban environments. The robot is equipped with two laser range finders, global positioning system (GPS), camera, and compass sensors. All the sensors data are processed by a single laptop computer. We have implemented different navigation algorithms enabling the robot to move autonomously in different urban environments. In pedestrian walkways, we utilize the distance to the edge (left, right, or both) to determine the robot steering command. In difference from pedestrian walkways, in open squares where there is no edge information, artificial neural networks map the GPS and compass sensor data to robot steering command guiding the visually impaired to the goal location. The neural controller is designed such as to be employed even in environments different from those in which they have been evolved. Another important advantage is that a single neural network controls the robot to reach multiple goal locations inside the open square. The proposed algorithms are verified experimentally in a navigation task inside the University of Toyama Campus, where the robot moves from the initial to goal location.  相似文献   

15.
对人体步态相位进行准确实时的判断是智能假肢等康复机器人控制的基础,提出并建立了一种实时状态相位检测系统.该系统包含了4只压力传感器和2只姿态传感器,能够准确地区分出平地行走时足跟着地、足放平、足跟离地、足尖离地、摆动弯曲以及摆动伸展等五种状态相位,实验表明:该系统能够适应不同测试者的不同步幅和步速,并能够应用在假肢的实时控制中.  相似文献   

16.
This article develops a detection system with a module-based intelligent security robot that has a uniform interface. The detection system contains a power detection module, a gas detection module, an environment detection module, and a fire detection module, etc. The control unit of these modules is a HOLTEK microchip. These modules can communicate with a master module via an I2C interface. The master module communicates with the main controller of the security robot via an RS232 interface. The main controller of the security robot system is an industry personal computer (IPC). It can display the status of these modules on the monitor. These detection modules can enhance the detection results using multisensory fusion algorithms. The user can add or remove the detection modules in any time, and the main controller can acquires sensor signals from these detection modules in real-time. Finally, we present some experimental results using these detection modules, and integrate these modules in a module-based intelligent security robot that executes several scenarios.  相似文献   

17.
提出一种智能家居服务机器人设计架构,以TMS320F2812作为主控芯片,嵌入监听器模块,利用延时估计法实现声源方位的实时检测;嵌入语音识别模块、电机驱动模块和避障模块,实现语音控制机器人的运动,并且利用超声波传感器使得机器人在移动过程中能够躲避障碍物;此外,提供编程接口实现机器人对家庭成员语音指令做出相应的行动。  相似文献   

18.
本文基于移动机器人平台设计实现了核心嵌入式控制系统,采用上位机-下位机两级体系结构,开发了环境信息采集上位机软件及机器人运动控制下位机软件;通过激光测距仪实时测量与数据处理,实现机器人对环境目标的探测与感知,设计了电机控制器用于实现机器人运动控制;最后,针对目标搜集使命案例,验证了移动机器人对环境目标的自主探测与搜集的作业能力,实验结果表明:所设计的嵌入式控制系统及其运动控制器满足使命任务要求。  相似文献   

19.
机器人操作器姿态性能的自动测量   总被引:1,自引:1,他引:0  
叶宁 Betem.  M 《机器人》1990,12(4):29-35
本文介绍了作者在里昂国立应用科学学院工业自动化实验室发展的一个无机械接触的姿态性能自动测量系统.该系统由测量头、靶子和数据采集、处理子系统构成.测量头是一铅质直角三面体.其上装有六个感应式位移传感器;靶子是一钢质直角三面体.与被测机器人相联接;靶子相对测量头的姿态可根据传感器给出的距离数据算出,一台微计算机管理着数据的自动采集处理以及与机器人控制器之间的通信与协调动作,对两台机器人进行的实际测量应用.已展示了一些有意义的结果;同时也表明,该测量系统可以在工业环境中可靠和方便地用于多种工业机器人的姿态重复性和动态性能的测试,并且具有造价低,适应性强和自动化程度高等特点.  相似文献   

20.
为了有效确保移动机器人视觉伺服控制效果,提高移动机器人视觉伺服控制精度,设计了基于虚拟现实技术的移动机器人视觉伺服控制系统。通过三维视觉传感器和立体显示器等虚拟环境的I/O设备、位姿传感器、视觉图像处理器以及伺服控制器元件,完成系统硬件设计。从运动学和动力学两个方面,搭建移动机器人数学模型,利用标定的视觉相机,生成移动机器人实时视觉图像,通过图像滤波、畸变校正等步骤,完成图像的预处理。利用视觉图像,构建移动机器人虚拟移动环境。在虚拟现实技术下,通过目标定位、路线生成、碰撞检测、路线调整等步骤,规划移动机器人行动路线,通过控制量的计算,实现视觉伺服控制功能。系统测试结果表明,所设计控制系统的位置控制误差较小,姿态角和移动速度控制误差仅为0.05°和0.12m/s,移动机器人碰撞次数较少,具有较好的移动机器人视觉伺服控制效果,能够有效提高移动机器人视觉伺服控制精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号