首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 78 毫秒
1.
多机器人路径规划研究方法   总被引:4,自引:0,他引:4  
在查阅大量文献的基础上对多机器人路径规划的主要研究内容和研究现状进行了分析和总结,讨论了多机器人路径规划方法的评判标准,并阐述了研究遇到的瓶颈问题,展望了多机器人路径规划方法的发展趋势。  相似文献   

2.
目前,针对多机器人目标探测定位系统,机器人通常获取相对于目标的角度信息,然后进行融合实现定位目标。采用此种定位算法,机器人相对目标的距离越近、相邻机器人与目标之间的夹角越均匀,目标的定位精度越高。然而由于目标与机器人分布的随机性,在定位的过程中,通常无法同时保证机器人相对目标距离最近、夹角最优。那么如何实现多机器在探测目标过程中,每个时刻机器人对目标的定位精度最优?提出了多机器人最优探测路径规划算法。每个机器人在单位时间内按直线移动,那么机器人下一时刻的位置轨迹,即以当前位置为圆心的圆。根据机器人定位的精度模型标准,采用内点优化算法求解得到圆上的一点,使得精度模型标准取得最优值,即定位精度精度最高,这点即为下一时刻机器人的位置。由此不断求得机器人下一时刻的位置,即可获得机器人移动的路径。仿真结果表明,算法能够实现在多机器人探测定位目标过程中,协同路径规划保证每个时刻目标定位精度最优。  相似文献   

3.
针对多机器人协作系统,提出了一种新的混合定点转动和遗传算法的方法,解决其协作路径规划问题。该方法利用遗传算法并行计算、不易陷入局部最优的优点,具备概率上寻找全局最优解的能力,同时结合了定点转动法易实现、有效减少单机器人路径浪费的优点。仿真实验结果表明,该规划方法运算速度较快,在得到有效规划路径的同时,也易于实现对单机器人的控制。  相似文献   

4.
路径规划是当前多机器人系统石矸究的一个热点问题。在对已有方法研究的基础上,提出一种全局路径规划和局部路径规划有效结合的新方法。仿真结果表明,该方法能提高路径规划的效率,使机器人具有良好的避碰能力,较好地实现了多机器人的路径规划。  相似文献   

5.
提出了一种基于学习分类器(LCS)的避碰路径规划方法,设计了集成适应度函数,在确保安全避碰的前提下,解决自主地面车(ALV)在狭隘环境下的路径优化问题.不同环境的仿真实验结果表明,遗传算法和学习分类器结合用于自主地面车的路径规划是收敛的,提高了ALV在狭隘环境中快速发现安全路径的能力.  相似文献   

6.
针对未知环境下机器人路径规划算法存在的运算耗时较高、响应慢等问题,提出一种适用于未知环境信息情况下的动态路径规划方法及规避策略。通常情况,一般机器人主要是设计出最短路径,但本文的机器人的路径要求解决避开障碍物快速到达幸存者位置并给予治疗的优化路径。本文首先提出对栅格法中如何确定栅格大小的方式优化方案;换取滚动窗口算法中的启发式算法,应用改进后的粒子群算法实现局部环境的路径规划;在适应度函数中加入安全因子和平滑因子。机器人在搜索环境中,通过正确的适应度函数,规划一条从起点到目标点的最优路径,采用改进后粒子群算法进行路径规划,机器人可以安全避开所有障碍物。  相似文献   

7.
基于差分进化的多机器人路径规划   总被引:1,自引:0,他引:1  
差分进化是一种新兴的、简单有效的智能优化方法.其具有较好的收敛性、鲁棒性和高效性.将差分进化引入到多机器人路径规划来,提出了一种基于差分进化的多机器人路径规划方法,并调整了进化的参数值.采用该方法加快了多机器人路径的规划速度,有效地克服了传统遗传算法速度慢,适应新环境差的缺点,最后给出了的仿真结果证明方法可行、有效.  相似文献   

8.
为解决多机器人在静态环境中的路径规划问题,以路径长度为优化目标模型,并针对此模型设计了多机器人萤火虫算法(MR-FA)。首先,考虑到路径安全性对环境中的障碍物采取扩张操作,设计初始化规则以提高生成初始种群的效率;其次,根据算法的连续性原理及特点,设计个体等长策略将维度不一致的个体转变为等维度个体以便于萤火虫的移动更新,并对移动更新后的不可行解采取路径修正策略;然后对规划出的每个机器人的移动路径进行碰撞检测,同时针对机器人不同的碰撞情况设计相应的避碰策略,即暂停—回退策略(PFS)、局部路径重规划策略(LPRS);最后,为验证MR-FA的有效性,在三组环境中进行仿真实验并与其他三种算法进行对比,综合得出MR-FA在解决多机器人路径规划时更有优势。  相似文献   

9.
基于再励学习的多移动机器人协调避障路径规划方法   总被引:1,自引:0,他引:1  
随着多移动机器人协调系统的应用向未知环境发展,一些依赖于环境模型的路径规划方法不再适用。而利用再励学习与环境直接交互,不需要先验知识和样本数据的特点,该文将再励学习应用于多机器人协调系统中,提出了基于再励学习的避障路径规划方法,并将再励函数设计为基于行为分解的无模型非均匀结构。计算机仿真实验结果表明该方法有效,并有较好的鲁棒性,新的再励函数结构使得学习速度得以提高。  相似文献   

10.
在RoboCup环境下,针对多机器人的路径规划和任务分配,将LPN-DE方法和组合拍卖法有效结合,综合考虑多机器人的避障、路径规划和角色分配,提出了完整的实现方法和动态模型,并在RoboCup中型组机器人上验证了该方法的实用性和有效性。  相似文献   

11.
移动机器人路径规划问题的节点数量大、搜索空间广, 且对安全性和实时性有要求等因素, 针对移动机器人多目标路径规划问题, 提出一种新颖的融合强化学习的多目标智能优化算法. 首先, 该算法采用NSGA-II为基础框架, 利用强化学习的赋予个体学习能力, 设计一种SARSA算子提高算法的全局搜索效率. 其次, 为了加速算法的收敛速度和保证种群多样性, 增加自适应模拟二进制交叉算子(tanh-SBX)作为辅助算子, 并将种群分为两种性质不同的子种群: 精英种群和非精英种群. 最后, 设计了4种不同的策略, 通过模拟退火算法的Metropolis准则计算更新策略的概率, 让最合适的策略引导种群的优化方向, 以平衡探索和利用. 仿真实验表明, 该算法在不同复杂度的环境下均能找到最佳路径. 相比传统智能仿生算法, 在更加复杂的环境中, 所提出的算法能有效平衡优化目标, 找到更优的安全路径.  相似文献   

12.
随着人群运动仿真技术的日趋成熟,其应用也得到了很好的推广,人群运动特征开始成为研究热点。路径规划系统作为人群仿真中的重要组成部分,为行人决定自身在环境中的行走路线提供了决策依据。为了仿真行人路径决策的过程,提出了一种二层路径规划模型,其中第一层模型产生一条粗略的路径,第二层模型根据第一层的粗略路径做精细的导航。实验结果表明,所提出的二层路径规划模型能够综合考虑环境中的静态和动态因素,为仿真模型提供了 较好的路径规划,并且具有较高的仿真执行效率。  相似文献   

13.
该文通过分析GIS空间数据和属性数据的特点,结合路径规划功能模块的要求,引用了直线优化和方向优化的模型,通过对A*算法的OPEN表进行改进,提高了路径规划中求解两点间的最短路径的查询速度。最后用JAVA编程语言和SQL SERVER数据库实现了本系统。  相似文献   

14.
该文通过分析GIS空间数据和属性数据的特点,结合路径规划功能模块的要求,引用了直线优化和方向优化的模型,通过对A算法的OPEN表进行改进,提高了路径规划中求解两点间的最短路径的查询速度。最后用JAVA编程语言和SQLSERVER数据库实现了本系统。  相似文献   

15.
随着智能电网的不断发展,变电站数量随之增加。针对变电站中巡检任务繁重以及人工巡检可视化水平低的问题,该文提出了一种基于改进深度强化学习的变电站机器人巡检路径规划方法。结合巡检机器人的运动模型,设计深度强化学习的动作和状态空间。将深度强化学习网络与人工势场相结合,重新构造深度强化学习的奖励函数,优化卷积神经网络结构。通过实际变电站场景进行验证,提出的改进深度强化学习算法较传统算法计算时间更短,效率更高,更有利于对变电站巡检机器人的巡检路径进行精准规划,提升变电站的自动化程度水平。  相似文献   

16.
多机器人动态编队的强化学习算法研究   总被引:8,自引:0,他引:8  
在人工智能领域中,强化学习理论由于其自学习性和自适应性的优点而得到了广泛关注.随着分布式人工智能中多智能体理论的不断发展,分布式强化学习算法逐渐成为研究的重点.首先介绍了强化学习的研究状况,然后以多机器人动态编队为研究模型,阐述应用分布式强化学习实现多机器人行为控制的方法.应用SOM神经网络对状态空间进行自主划分,以加快学习速度;应用BP神经网络实现强化学习,以增强系统的泛化能力;并且采用内、外两个强化信号兼顾机器人的个体利益及整体利益.为了明确控制任务,系统使用黑板通信方式进行分层控制.最后由仿真实验证明该方法的有效性.  相似文献   

17.
路径规划作为移动机器人自主导航的关键技术,主要是使目标对象在规定范围内找到一条从起点到终点的无碰撞安全路径.阐述基于常规方法和强化学习方法的路径规划技术,将强化学习方法主要分为基于值和基于策略两类,对比时序差分、Q-Learning等基于值的代表方法与策略梯度、模仿学习等基于策略的代表方法,并分析其融合策略和深度强化学...  相似文献   

18.
分析了基于遗传算法的学习分类器系统的体系结构,并对消息与分类器匹配、桶队列算法信用分配以及基于遗传算法的规则发现等关键技术进行了研究,推导证明了利用桶队列算法更新分类器强度的收敛性理论,通过对六值布尔函数的学习,进一步对学习分类器系统的学习性能、分类器强度更新收敛性进行了仿真验证。  相似文献   

19.
传统Q算法对于机器人回报函数的定义较为宽泛,导致机器人的学习效率不高。为解决该问题,给出一种回报详细分类Q(RDC-Q)学习算法。综合机器人各个传感器的返回值,依据机器人距离障碍物的远近把机器人的状态划分为20个奖励状态和15个惩罚状态,对机器人每个时刻所获得的回报值按其状态的安全等级分类,使机器人趋向于安全等级更高的状态,从而帮助机器人更快更好地学习。通过在一个障碍物密集的环境中进行仿真实验,证明该算法收敛速度相对传统回报Q算法有明显提高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号