共查询到17条相似文献,搜索用时 140 毫秒
1.
2.
以复杂任务下多个智能体路径规划问题为研究对象,提出一种基于强化学习的多Agent路径规划方法。该方法采用无模型的在线Q学习算法,多个Agent不断重复"探索-学习-利用"过程,积累历史经验评估动作策略并优化决策,完成未知环境下的多Agent的路径规划任务。仿真结果表明,与基于强化学习的单Agent路径规划方法相比,该方法在多Agent避免了相碰并成功躲避障碍物的前提下,减少了17.4%的总探索步数,形成了到达目标点的最短路径。 相似文献
3.
移动机器人在复杂环境中移动难以得到较优的路径,基于马尔可夫过程的Q学习(Q-learning)算法能通过试错学习取得较优的路径,但这种方法收敛速度慢,迭代次数多,且试错方式无法应用于真实的环境中。在Q-learning算法中加入引力势场作为初始环境先验信息,在其基础上对环境进行陷阱区域逐层搜索,剔除凹形陷阱区域[Q]值迭代,加快了路径规划的收敛速度。同时取消对障碍物的试错学习,使算法在初始状态就能有效避开障碍物,适用于真实环境中直接学习。利用python及pygame模块建立复杂地图,验证加入初始引力势场和陷阱搜索的改进Q-learning算法路径规划效果。仿真实验表明,改进算法能在较少的迭代次数后,快速有效地到达目标位置,且路径较优。 相似文献
4.
介绍了传统人工势场法在静态环境中的应用,分析了此方法在动态环境中的不足,在此不足的基础上引入了速度势场的概念,改进了传统的人工势场函数,得出了新的引力函数和斥力函数;新的引力函数和斥力函数考虑了机器人、目标点、障碍物的速度特性,使机器人能更好适应动态环境;在新的势场函数作用下,机器人能快速调整自身速度大小和方向,使其快速脱离障碍物的威胁并快速、准确到达或追踪目标;仿真实验结果验证了新的人工势场函数的有效性. 相似文献
5.
基于人工势场法的移动机器人路径规划研究 总被引:5,自引:0,他引:5
人工势场法是机器人局部路径规划常用的一种方法,具有反应速度快、计算量小和实时性等优点。但这种方法容易产生局部极点,导致机器人停止移动,达不到目标。文章利用传统的人工势场法对移动机器人避障行为进行了仿真实验并成功地规划出一条光滑路径,并对人工势场法研究现状进行了分析讨论。 相似文献
6.
传统势场法是飞行器路径规划的一种常用方法,但是存在目标不可达、易收敛到局部极小值和无评价机制等问题.本文针对这些问题提出了一种飞行器路径规划的分层势场算法.利用分段思想对势场函数进行修正,解决了目标不可达问题.引入回环力和飞行器间作用力,解决了易收敛到局部极小值问题和飞行器间的碰撞问题.采用分层方法,建立了多层次多方位路径点阵,并以此计算最优路径点,从而引入了势场法的评价机制.通过数值仿真,对在复杂障碍环境中的飞行器路径规划进行了传统势场法、改进势场法和分层势场法的对比研究.仿真结果验证了所提出的分层势场算法的有效性和可行性. 相似文献
7.
基于人工势场法的路径规划方法研究及展望 总被引:3,自引:0,他引:3
人工势场方法因其简单、高效、生成路径平滑的特点,在机器人路径规划领域得到了广泛的应用。首先介绍了基于传统人工势场模型的路径规划基本原理,并对其存在的易陷入局部极小值的问题进行了详细分析;然后重点讨论和总结了针对目标不可达、易陷入徘徊抖动状态、动态环境规划能力不足等问题的改进策略;最后对基于人工势场的路径规划方法的发展方向进行了展望。 相似文献
8.
针对传统人工势场法在多障碍物环境中进行路径规划存在局部极小值,以及动态环境中移动机器人无法实时路径规划等问题,提出一种动态模糊控制的改进人工势场法,通过在势场力函数中引入速度矢量项,并采用模糊控制方法实时调节斥力场系数,从而实现在动态多障碍物的环境下机器人快速、实时、自适应的路径规划.仿真结果表明,该方法有效可行,在典型位置关系及特殊运动状态下均可获得良好的路径规划性能.Abstract: For traditional artificial potential field (APF) method,the local minima problem exists and can not satisfy the requirement of real-time for path planning of mobile robots in the multi-obstacle dynamic environment. A new APF method based on dynamic fuzzy control is proposed in this paper. The potential field force function is modified by introducing the velocity vector. The coefficients of potential field of repulsive force are adjusted by fuzzy control method. A fast real-time self-adaptive path planning method with dynamic multi-obstacle is realized. The simulation results show that the method is effective and feasible, and can get much better performance of path planning in typical location relationship and special motion relationship. 相似文献
9.
针对自动跟随小车实际工作环境下目标点和障碍物具有可移动特征,在传统人工势场法的基础上提出一种具有动态路径预测功能的路径规划方法。通过实时采集和计算小车、目标点和障碍物的距离、运动速度和方向,预测未来三者之间可能的位置关系。根据目标点预测结果采用人工势场法确定接近目标点路径,根据预测的障碍点运行轨迹确定绕过障碍点的路径。将基于路径预测人工势场法与传统人工势场法进行仿真对比,结果表明该方法在跟随效率和避障能力上具有显著的提高。 相似文献
10.
AGV(automated guided vehicle)路径规划问题已成为货物运输、快递分拣等领域中一项关键技术问题。由于在此类场景中需要较多的AGV合作完成,传统的规划模型难以协调多AGV之间的相互作用,采用分而治之的思想或许能获得系统的最优性能。基于此,该文提出一种最大回报频率的多智能体独立强化学习MRF(maximum reward frequency)Q-learning算法,对任务调度和路径规划同时进行优化。在学习阶段AGV不需要知道其他AGV的动作,减轻了联合动作引起的维数灾问题。采用Boltzmann与ε-greedy结合策略,避免收敛到较差路径,另外算法提出采用获得全局最大累积回报的频率作用于Q值更新公式,最大化多AGV的全局累积回报。仿真实验表明,该算法能够收敛到最优解,以最短的时间步长完成路径规划任务。 相似文献
11.
针对现有机器人路径规划强化学习算法收敛速度慢的问题,提出了一种基于人工势能场的移动机器人强化学习初始化方法.将机器人工作环境虚拟化为一个人工势能场,利用先验知识确定场中每点的势能值,它代表最优策略可获得的最大累积回报.例如障碍物区域势能值为零,目标点的势能值为全局最大.然后定义Q初始值为当前点的立即回报加上后继点的最大折算累积回报.改进算法通过Q值初始化,使得学习过程收敛速度更快,收敛过程更稳定.最后利用机器人在栅格地图中的路径对所提出的改进算法进行验证,结果表明该方法提高了初始阶段的学习效率,改善了算法性能. 相似文献
12.
针对机器人局部路径规划的特点和传统人工势场理论存在不足的问题,采用改进的斥力势场函数,将机器人与目标的相对距离和速度考虑在内以解决局部最小值问题。引入神经网络模糊系统,兼顾了系统的鲁棒性和快速性,并在应用实例中得到了有效的验证。 相似文献
13.
基于动态模糊人工势场法的移动机器人路径规划 总被引:1,自引:1,他引:1
传统人工势场法在路径规划中存在局部极小值问题,而且不能满足动态环境中移动机器人路径规划对实时性、安全性和可达性的要求.针对传统人工势场法存在的问题,通过引入速度矢量,改势场力函数,并与模糊控制方法相结合,实时调节斥力势场系数,克服人工势场法的缺陷.在MATLAB平台中验证了方法的有效性,实验结果表明,该方法优于人工势场法模型的路径规划. 相似文献
14.
针对传统人工势场法在路径规划中存在局部极值小点问题,使得移动机器人无法运动到目标点,提出一种基于模拟退火算法的人工势场法,其利用模拟退火算法在出现局部极小点的位置附近增设随机目标点,引导移动机器人逐渐逃离出局部极小点区域.最终通过Matlab仿真表明,所设计的方法能使移动机器人逃离局部极小点位置,成功到达目标点位置,并... 相似文献
15.
针对洗浴机器人末端执行器与人体直接接触擦洗的自主导航问题进行了研究,提出一种基于人体点云的改进人工势场法三维覆盖路径规划算法。首先,在传统人工势场法基础上增设障碍物引力势场,使机器人能够贴近障碍物表面向目标点移动,并且通过添加虚拟目标点的方法克服了凹陷区域产生的局部极小值问题。然后,将人体点云切段分割后投影至平面,结合改进的人工势场法完成对人体表面的覆盖路径规划。以人体模型点云为对象进行仿真实验及对比,结果表明提出算法可以快速有效地完成基于人体点云的三维覆盖擦洗路径规划。 相似文献
16.
城市交通路径规划需要考虑规划的快速性和车辆的安全性,而目前大多数强化学习算法不能兼顾两者.针对这个问题,首先提出采用基于模型的算法和与模型无关的算法相结合的Dyna框架,以提高规划的速度;然后使用经典的Sarsa算法作为选路策略,以提高算法的安全性;最后将两者结合提出了改进的基于Sarsa的Dyna-Sa算法.实验结果... 相似文献
17.
针对传统的多Agent强化学习算法中,Agent学习效率低的问题,在传统强化学习算法中加入具有经验知识的函数;从心理学角度引入内部激励的概念,并将其作为强化学习的激励信号,与外部激励信号一同作用于强化学习的整个过程。最后将此算法运用到RoboCup仿真中,仿真结果表明该算法的学习效率和收敛速度明显优于传统的强化学习。 相似文献