排序方式: 共有123条查询结果,搜索用时 21 毫秒
61.
移动感知网是一个由许多带有传感器的自主移动机器人组成的分布式传感器网络。为了更好地部署这些移动机器人节点,形成最大化覆盖感知区域,提出了一种基于机器人局部信息的分布式感知网覆盖方法。每个节点利用与邻居节点之间的虚拟人工势场产生的虚拟作用力来控制移动节点的运动和节点间的避碰,使移动节点能够在允许的时间内,以较少的能量消耗移动到各自理想的位置。采用李亚普诺夫函数进行了感知网节点势场梯度的理论分析,用计算机仿真实验验证了该方法的有效性,并与模拟退火算法进行了性能比较。 相似文献
62.
在动态环境下的局部避障是移动机器人的一项基本功能.在各种速度空间方法,如曲率-速率法(CVM)、巷道-曲率法(LCM)和扇区-曲率法(BCM)的基础上,提出了一种适用于未知或部分未知动态环境的局部避障方法.该方法将碰撞预测模型与改进后的BCM有效结合,不仅兼备了CVM的平滑性、LCM的安全性和BCM快速性的优点,而且弥补了各种速度空间寻优方法的不足,使其能够适用于移动机器人在动态环境下的避障与导航.实际机器人的导航实验表明该算法是可行而有效的. 相似文献
63.
一种动态未知环境中自主机器人的导航方法 总被引:1,自引:1,他引:0
提出一种动态未知环境中机器人自主导航方法,利用少量的人类辅助避免了繁琐的地图描述.该方法分两个阶段:用户引导阶段和自主导航阶段.在用户引导阶段,利用多种传感器信息融合生成局部环境的粗略的极坐标地图,利用它可以得到全局地图,还给出了消除传感器数据误差的方法;在自主导航阶段,利用引导阶段得到的地图在动态环境中进行运动,并给出了运动控制的约束条件以及动态避障的方法.机器人利用该方法可以处理突发的障碍物,还能对路径进行优化,实验结果证明了其有效性. 相似文献
64.
强化学习是提高机器人完成任务效率的有效方法,目前比较流行的学习方法一般采用累积折扣回报方法,但平均值回报在某些方面更适于多机器人协作。累积折扣回报方法在机器人动作层次上可以提高性能,但在多机器人任务层次上却不会得到很好的协作效果,而采用平均回报值的方法,就可以改变这种状态。本文把基于平均值回报的蒙特卡罗学习应用于多机器人合作中,得到很好的学习效果,实际机器人实验结果表明,采用平均值回报的方法优于累积折扣回报方法。 相似文献
65.
66.
67.
基于强化学习的多机器人协作 总被引:3,自引:0,他引:3
提出了一种动态环境下多个机器人获取合作行为的强化学习方法,该方法采用基于瞬时奖励的Q-学习完成单个机器人的学习,并利用人工势场法的思想确定不同机器人的学习顺序,在此基础上采用交替学习来完成多机器人的学习过程。试验结果表明所提方法的可行性和有效性。 相似文献
68.
为了解决传统DTW算法准确度和效率不高的问题,提出了一种基于图像配准方法的语音特征匹配算法.该方法将MFCC参数映射为二值图像,并通过引入图像配准的方法进行模板匹配,达到了语音特征匹配的目的.实验结果表明,与传统的DTW算法相比,该方法的准确率、召回率和算法执行效率有了明显的提高. 相似文献
69.
70.
双足足球机器人行走步态研究 总被引:2,自引:0,他引:2
为了研究双足足球机器人行走时步态的连续性和稳定性,首先提出了双足足球机器人的体系结构,然后给出了基本步态算法,增加了行进中步态校正策略,包括动态和静态步伐的校正.解决了动、静态行走时步态的准确性和鲁棒性.试验数据验证了步态方程和步态校正策略能够适应FIRA比赛要求. 相似文献