首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
基于BDI模型构建信息Agent   总被引:1,自引:0,他引:1       下载免费PDF全文
本文提出一种用于分布式多Agent环境的以BDI模型为基础构建信息Agent的方法,给出了PERFORM(PERsonal inFORmation Manager)系统的模型和算法。  相似文献   

2.
一种基于Agent团队的强化学习模型与应用研究   总被引:22,自引:2,他引:20  
多Agent学习是近年来受到较多关注的研究方向,以单Agent强化Q-learning算法为基础,提出了一种基于Agent团队的强化学习模,这个模型的最大特点是引入主导Agent作为团队学习的主角,并通过主导Agent的角色变换实现整个团队的学习。结合仿真机器人足球领域,设计了具体的应用模型,在几个方面对Q-learning进行扩充,并进行了实验,在仿真机器人足球领域的成功应用表明了这个模型的有效  相似文献   

3.
提出了基于环境感知的具有推理能力的BDIAgent模型。通过引入环境感知函数、意见函数、过滤函数、行为函数对环境的变化和Agent自身推理过程进行研究,并通过实例加以说明。  相似文献   

4.
基于BDI的多Agent交互   总被引:8,自引:0,他引:8  
康小强  石纯一 《计算机学报》1999,22(11):1166-1171
给出一个以Agent交互为基本出发点的BDI描述语言MAL,对MAL反映的BDI概念,BDI间的关系以及多Agent群体的社会承诺和联合意图进行了解释,说明了BDI在多Agnet交互过程中的起的作用,与Cohen和Levesque,Rao和Georgeff以及haddadi等人的工作相比,MAL同时Agent个体和多Agent群体的BDI描述,克服了对BDI概念的反直观解释,给出了符合哲学含义的关  相似文献   

5.
多Agent协作的强化学习模型和算法   总被引:2,自引:0,他引:2  
结合强化学习技术讨论了多Agent协作学习的过程,构造了一个新的多Agent协作学习模型。在这个模型的基础上,提出一个多Agent协作学习算法。算法充分考虑了多Agent共同学习的特点,使得Agent基于对动作长期利益的估计来预测其动作策略,并做出相应的决策,进而达成最优的联合动作策略。最后,通过对猎人。猎物追逐问题的仿真试验验证了该算法的收敛性,表明这种学习算法是一种高效、快速的学习方法。  相似文献   

6.
基于BDI的对手Agent模型   总被引:13,自引:0,他引:13  
李毅  石纯一 《软件学报》2002,13(4):643-648
MAS中建立对手模型,并进行意图和规划识别是有效交互的必要条件.BDI是描述思维的有效手段,可用来建立通用的对手思维状态模型.当前对手模型的研究偏重于对单一行为结果的推断,不能充分表示并发多意图及其关系,也不利于实时地的为决策提供支持.提出的基于BDI建立通用对手Agent模型的算法改进了Anand S.Rao和Milind Tambe等人有代表性的研究成果.  相似文献   

7.
BDI Agent推理模型的研究   总被引:1,自引:0,他引:1  
文章提出了基于环境感知的具有推理能力的BDI Agent模型。并通过引入环境感知函数、意见函数、过滤函数、行为函数对环境的变化和Agent自身推理过程进行研究。在此基础上,通过积木世界的具体实例加以说明。  相似文献   

8.
一种BDI Agent的动态推理模型   总被引:1,自引:0,他引:1  
论文提出了基于环境感知的具有动态推理能力的BDIAgent模型。该模型引入了环境感知函数、意见函数、过滤函数和行为函数对环境的变化和Agent自身推理过程进行研究,并用扩展了的ASL语言描述该模型的动态推理过程。然后,用机器人摞积木的例子来验证这种推理过程的合理性。最后进行总结并讨论了进一步的研究工作。  相似文献   

9.
一种BDI模型的实现框架   总被引:2,自引:1,他引:2  
多Agent系统的设计首先要考虑的问题是Agent自身如何构造。首先总结了构造了Agent的常用方法,阐述了目前BDI模型在基于Internet的多Agent系统应用的现状,介绍了Agent的多平面状态机模型和实现框架,并详细分析了其特点。  相似文献   

10.
高峰  李晋惠  王学通 《计算机工程》2007,33(15):214-216
在某些软件测试过程中,是由人工设计黑盒测试中的测试用例,这种方法人工重复劳动多、测试效率低。基于Agent理论中的BDI Agent的思想,给出了黑盒测试中自动生成测试用例的一个Agent模型,提出了一个使用该模型生成测试用例的算法。该模型能够依据黑盒测试中测试用例生成的基本原则和待测功能模块的功能说明,自动设计出相应的测试用例。使用该模型和算法生成了一个登录窗口的测试用例,解决了传统黑盒测试中的不足,具有重要的理论和实际意义。  相似文献   

11.
基于BDI的足球agent和TH—soccer平台   总被引:9,自引:0,他引:9  
机器人足球赛是典型的MAS问题。建造了TH-soccer比赛平台,利用BDI实现了足球agent模型和比赛算法,并在模型上实现了team work方法,可解决个体与team行为选择矛盾的问题,还给出了个体对抗,局部 战术和全局战术等协商、协作和对抗方法。改进了Milind Tambe等人的研究。  相似文献   

12.
基于对立的联想计算   总被引:10,自引:0,他引:10  
本文讨论了联想的认知概念,归纳出联想的一般性原理,并在此基础上给出了基于对立的联想计算理论,其中包括对立概念,对立度的计算规则,基于对立度的联想规则。同时还讨论了模拟退火判定算法。使得对立度低于阈值的靶仍然能以较小的概率被想起。这正确地反映了联想思想的创造性,克服了已有模型的不足。  相似文献   

13.
基于Markov对策的多Agent强化学习模型及算法研究   总被引:19,自引:0,他引:19  
在MDP,单Agent可以通过强化学习来寻找问题的最优解。但在多Agent系统中,MDP模型不再适用。同样极小极大Q算法只能解决采用零和对策模型的MAS学习问题。文中采用非零和Markov对策作为多Agent系统学习框架,并提出元对策强化学习的学习模型和元对策Q算法。理论证明元对策Q算法收敛在非零和Markov对策的元对策最优解。  相似文献   

14.
Dyna-Q, a well-known model-based reinforcement learning (RL) method, interplays offline simulations and action executions to update Q functions. It creates a world model that predicts the feature values in the next state and the reward function of the domain directly from the data and uses the model to train Q functions to accelerate policy learning. In general, tabular methods are always used in Dyna-Q to establish the model, but a tabular model needs many more samples of experience to approximate the environment concisely. In this article, an adaptive model learning method based on tree structures is presented to enhance sampling efficiency in modeling the world model. The proposed method is to produce simulated experiences for indirect learning. Thus, the proposed agent has additional experience for updating the policy. The agent works backwards from collections of state transition and associated rewards, utilizing coarse coding to learn their definitions for the region of state space that tracks back to the precedent states. The proposed method estimates the reward and transition probabilities between states from past experience. Because the resultant tree is always concise and small, the agent can use value iteration to quickly estimate the Q-values of each action in the induced states and determine a policy. The effectiveness and generality of our method is further demonstrated in two numerical simulations. Two simulations, a mountain car and a mobile robot in a maze, are used to verify the proposed methods. The simulation result demonstrates that the training rate of our method can improve obviously.  相似文献   

15.
本文结合机器人路径规划问题介绍了增强式学习方法 ,实现了动态环境中基于增强式学习的自适应路径规划 .增强式学习通过采用随机性的控制策略 ,实现策略的优化搜索和在线学习 .并采用具有模式增强输入的BP网络进行决策参数估计 ,加快学习的收敛 .仿真试验证明该方法能有效实现动态环境中机器人的避碰和导航  相似文献   

16.
基于C/S模型机器人控制器的研究及其应用   总被引:6,自引:1,他引:6  
王宏杰  颜国正  林良明 《机器人》2002,24(3):228-233
随着网络通信技术的发展和控制系统的革新,如何将网络技术应用到机器人系统,使机器人 达到开放式、分布式的网络控制系统,是目前机器人控制器研究的热点.本文提出了基于C/ S(Client/Server)模型的机器人控制器实现原理,阐述基于Win NT操作系统的RPC(Remot e Process Call)机制的机器人控制网络客户服务器程序的开发,并实现了软件的DCOM封装 .最后,以实例说明了利用DCOM技术开发的Win NT操作系统下的Win32机器人柔性自动化应 用程序和基于Web的远程机器人监控系统,显示了基于C/S模型的机器人控制器分布式控制网 络的优点.  相似文献   

17.
基于交易服务的一个动态负载平衡模型   总被引:3,自引:0,他引:3  
CORBA是当前被广泛采用的分布式对象平台,它成功地解决了异种平台的互操作问题。为了提高整个基于CORBA的分布式系统的性能,负载平衡成为CORBA应当考虑的问题。本文给出了一个基于交易服务的通用动态负载平衡模型。它不仅实现了CORBA负载平衡,而且其对交易服务的扩展对用户透明,原有应用可以直接与之集成。文章最后给出了模型的性能的评价和分析。  相似文献   

18.
基于多Agent的混合智能学习算法及   总被引:4,自引:0,他引:4  
本文提出了基于多Agent的混合智能学习算法,将个体学习和群体学习有效地结合起来,并给出了该算法在RoboCup足球机器人仿真系统中的具体应用.实验结果表明了算法的可行性与有效性.  相似文献   

19.
基于神经网络的进化机器人组合行为方法研究   总被引:2,自引:0,他引:2  
为了克服传统机器人设计方法存在的局限性,提高机器人的自适应能力,采用神经网络方法实现了进化机器人避碰、趋近及其组合行为学习,首先,提出了新的机器人模拟环境和机器人模型,结合了采用神经网络实现进化学习系统的方法。其次,对具有进化学习机制的机器人基本行为和组合行为学习系统进行了仿真,并通过仿真证明了新模型不要求环境知识的完备性,机器人具有环境自适应学习能力,还具有结构简洁、易扩展等特点,最后,对仿真结果进行分析与讨论,并提出了进一步研究方向。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号