排序方式: 共有2条查询结果,搜索用时 15 毫秒
1
1.
2.
为解决深度强化学习中的收敛慢和过估计问题,提出一种改进融合深度强化学习的方法。引入人工势场中的受力作为深度强化学习的奖励值,引导机器人避开障碍向目标移动,提升深度强化学习网络的收敛性;融合平均DQN和双DQN方法DDQN,把平均DQN用于DDQN的目标网络,解决过估计问题;把浅层特征作为深层网络输入进一步提升学习效果。与其它方法对比实验结果表明,改进后的方法能够提升训练网络的收敛性,更好地解决过估计问题。机器人使用改进后的方法得到的奖励值更大,规划的路径更优。 相似文献
1