共查询到18条相似文献,搜索用时 93 毫秒
1.
动态未知环境中移动机器人的滚动路径规划及安全性分析 总被引:14,自引:0,他引:14
借鉴预测控制滚动优化原理,研究了全局环境未知且存在动态障碍物情况下的机器人路径规划问题.提出的基于滚动窗口的移动机器人路径规划方法充分利用机器人实时测得的局部环境信息,以滚动方式进行在线规划,合理结合了优化与反馈,对动态环境具有良好的适应性.还对规划算法的安全性进行了分析. 相似文献
2.
针对存在静态障碍物的未知环境下移动机器人路径规划问题,提出运用行为动力学与滚动窗口相结合进行路径规划的方法。首先根据所获得的窗口(局部环境)信息,采用启发式函数进行局部子目标优化选择;然后将路径规划问题即导航行为分解为趋于目标行为和避障行为,并对这两种行为分别建立了行为状态和行为模式动力学模型;在此基础上,以窗口为单位,利用导航行为动力学模型进行在线自主路径规划;将一系列窗口中的规划轨迹按照连续性条件首尾相接,最终完成了一条全局规划任务。该方法原理简单,计算量小,规划路径光滑,具有较强的实际应用价值。通过计算机实例仿真验证了该方法的有效性和适应性。 相似文献
3.
一种克服振荡与死循环的机器人实时路径规划方法 总被引:6,自引:0,他引:6
本文研究了一般障碍环境下全局信息未知的机器人路径规划问题,分析了基于实时探测信息的滚动路径规划算法可能遇到的振荡和死循环现象,提出了增加适量记忆的改进滚动路径规划算法,不仅有效地克服了振荡和死循环的发生,而且保证了机器人对全局目标的可达性,为移动机器人在一般未知障碍环境下的路径规划提供了快速、有效的方法. 相似文献
4.
未知环境中智能体的路径规划 总被引:2,自引:0,他引:2
用滚动规划方法解决全局环境未知时的智能体路径规划问题。该法充分利用智能体实时探测的局部环境信息,以滚动方式进行在线规划,大大减小了在线运算量;通过适当加入记忆,能保证规划的全局可达性。仿真结果表明了算法的快速性高效性。 相似文献
5.
提出了蚁群路径规划算法中一种动态候选解窗口的方法。该方法首先在固定均匀分布候选解的窗口上划分成若干分块,接着将负责路径规划的主蚁群的候选决策点看作一系列具有候选解属性的蚂蚁,再用该蚁群算法根据每分块上所有候选解上游连接边上的信息素及其启发信息以一定概率动态分布候选决策点,从而细化候选解,最终使蚁群能搜索到一条更好的路径解。仿真实验和对比的结果表明,动态候选解窗口方法比固定均匀分布候选解的方法可获得更优的性能。 相似文献
6.
基于局部探测信息的机器人滚动路径规划 总被引:8,自引:0,他引:8
用基于滚动窗口的路径规划方法研究了全局环境未知时的机器人路径规划问题.该法充分利用机器人实时测得的局部环境信息,以滚动方式进行在线规划,实现了优化与反馈的合理结合.文中分析了不同凸障碍环境下滚动路径规划子目标选择策略,并且还探讨了规划算法的可达性. 相似文献
7.
未知环境下移动机器人遍历路径规划 总被引:2,自引:0,他引:2
郭小勤 《计算机工程与设计》2010,31(1)
为提高未知环境下移动机器人遍历路径规划的效率,提出了一种可动态调节启发式规则的滚动路径规划算法.该算法以生物激励神经网络为环境模型,通过在线识别环境信息特征,动态调用静态搜索算法和环绕障碍搜索算法,有效减少了路径的转弯次数.引入虚拟障碍和直接填充算法,解决了u型障碍区域的连续遍历问题.最后通过仿真实验表明了该方法在未知复杂环境下的有效性. 相似文献
8.
良好的移动机器人路径规划技术不仅可以节省大量的时间,还可以减少移动机器人的磨损和资金投入。传统A*算法只能在完整的导航环境信息已知时进行静态路径规划,而包括强化学习(Reinforcement Learning, RL)在内的元启发式算法虽然能够根据实时信息进行动态路径规划,但其参数调试费时费力,且在没有全局最优路线引导的情况下,很容易陷入局部最优解,而无法达到目的地。针对总体布局已知、障碍物分布信息未知的场景,提出了一种结合A*算法和RL中的近端策略优化(Proximal Policy Optimization, PPO)算法的动态路径规划算法。仿真实验表明,与通常的RL算法相比,该算法所需的训练期数较少,且能根据实时的障碍物信息规划出高效、安全的路径。 相似文献
9.
动态环境下机器人路径规划的一种新方法 总被引:2,自引:0,他引:2
提出了一种动态环境下实用于机器人路径规划的新方法。该方法先利用链接图法对环境建模,再通过遗传算法搜索出全局最短路径。然后在机器人行进过程中再分别遇到障碍物的类型不同而采取不同的局部路径规划策略完成避障,同时顺利达到目的地。仿真表明该方法具有可行性。 相似文献
10.
动态未知环境中移动机器人的滚动路径规划 总被引:15,自引:1,他引:15
本文借鉴预测控制滚动优化原理,研究了全局环境未知且存在动态障碍物情况下的
机器人路径规划问题.文中提出的基于滚动窗口的移动机器人路径规划方法充分利用机器人
实时测得的局部环境信息,以滚动方式进行在线规划,实现了优化和反馈的合理结合,对动
态环境具有良好的适应性. 相似文献
11.
针对在未知环境下实现移动机器人实时的路径规划问题,提出了一种将快速扩展随机树(RRT)算法与视野域自适应的滚动窗口相结合的路径规划算法。该方法实时获取滚动窗口内的局部环境信息,根据环境的变化,滚动窗口视野域进行自适应调整,通过分析滚动窗口内传感器获取的信息,结合改进后的RRT算法筛选出可行的路径,控制移动机器人到达子目标点,在此过程中动态监测规划好的路径,确保路径合理,并重复上述过程,直至到达目标区域。实验对比分析表明,该方法能实时并有效实现未知环境下移动机器人的路径规划。 相似文献
12.
13.
Rolling planning is an efficient method for path planning in uncertain environment. In this paper, the general principle and algorithm of mobile robot path planning based on rolling windows are studied. The sub-optimality of rolling path planning is analyzed in details and explained with a concrete example. 相似文献
14.
针对在未知动态障碍物存在且目标点移动的环境下,采用人工势场法规划路径时斥力影响半径往往大于障碍物的半径从而导致动态障碍物与机器人发生碰撞的问题,提出非完全等待策略与Morphine算法相结合的改进人工势场法动态路径规划策略。当动态障碍物与机器人发生侧面碰撞时采用非完全等待策略;当动态障碍物与机器人发生迎面碰撞时采用Morphine算法局部规划路径;同时引入滚动窗口理论提高躲避动态障碍物的精确度。通过仿真实验,与传统人工势场作对比,提出的改进算法在发生侧面碰撞时要缩短12步,在发生迎面碰撞时要缩短6步,由此可得提出改进算法在路径平滑性和规划步数方面效果更优。 相似文献
15.
针对动态未知环境下移动机器人路径规划问题,采用一种有效的局部连接Hopfiled神经网络(Hopfield Neural Networks,HNN)来表示机器人的工作空间.机器人在HNN所形成的动态数值势场上进行爬山搜索法来形成避碰路径,并且不存在非期望的局部吸引点.HNN权值设计中考虑了路径安全性因素,通过在障碍物附件形成局部虚拟排斥力来形成安全路径.HNN的连接权是非对称的,并且考虑了信号传播时延.分析了HNN的稳定性,所给稳定性条件和时延无关.HNN模型中突出了最大传播激励,从而使得HNN具有更广的稳定性范围并能表示具有更多节点的机器人工作空间.为对该HNN有效仿真求解,结合约束距离变换和HNN的时延性,给出了单处理器上高效的串行模拟方案,规划路径的时间复杂度为O(N)(N是HNN中神经元的数目),使得路径重规划能快速在线进行.仿真和实验表明该方法的有效性. 相似文献
16.
针对动态环境的移动机器人路径规划问题,提出了一种改进哈里斯鹰算法(IHHO)与改进动态窗口算法(IDWA)的融合算法(IHHO-IDWA)。首先,针对哈里斯鹰算法后期搜索性能不足等问题,提出了融合自适应混沌和核心种群动态划分策略、融合黄金正弦策略以及动态云最优解扰动策略来提高算法的性能。其次,针对动态窗口算法存在规划的路径长和易陷入死锁等问题,提出了三个改进策略:增加子函数,保证算法能够规划出更短的路径;提出自适应权重策略,平衡算法局部避障能力和全局搜索性能;设定初始航向角,避免路径冗余。最后,通过测试函数、CEC2014函数的数值实验和静态、动态路径规划实验,验证了IHHO和IDWA性能有明显提升;通过50×50大型动态地图验证了融合算法较对照组算法规划的路径缩短了11.51%,证明了该方法的优越性。 相似文献
17.
针对时效A*算法为了大幅减少算法时间,导致路径规划长度增加和路径锯齿过多的问题,提出一种改进的双向时效A*算法,该方法将从起点和终点同时运行时效A*算法寻找路径,并采用多近邻栅格距离计算方案;同时,根据不同环境地图对传统A*算法、时效A*算法和双向时效A*算法运行结果进行对比研究及分析;最后,制定算法时间、路径长度两个指标来评判算法的优劣。实验结果显示,双向时效A*算法相对于传统A*算法,算法时间最大减少76.8%,相对于时效A*算法,时间最大减少55.4%,并解决了时效A*算法规划路径距离增加、路径不够平滑的问题。 相似文献
18.
Reinforcement learning (RL) is a popular method for solving the path planning problem of autonomous mobile robots in unknown environments. However, the primary difficulty faced by learning robots using the RL method is that they learn too slowly in obstacle-dense environments. To more efficiently solve the path planning problem of autonomous mobile robots in such environments, this paper presents a novel approach in which the robot’s learning process is divided into two phases. The first one is to accelerate the learning process for obtaining an optimal policy by developing the well-known Dyna-Q algorithm that trains the robot in learning actions for avoiding obstacles when following the vector direction. In this phase, the robot’s position is represented as a uniform grid. At each time step, the robot performs an action to move to one of its eight adjacent cells, so the path obtained from the optimal policy may be longer than the true shortest path. The second one is to train the robot in learning a collision-free smooth path for decreasing the number of the heading changes of the robot. The simulation results show that the proposed approach is efficient for the path planning problem of autonomous mobile robots in unknown environments with dense obstacles. 相似文献