首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 439 毫秒
1.
一种AGENT任务求解联盟形成策略   总被引:9,自引:0,他引:9  
Agent联盟是一组平等的、协作的、共同承担任务的Agent的集合.联盟的形成往往需要较大的通信开销和计算工作量.本文提出一种Agent形成联盟的策略,该策略在系统运行的初始阶段,保证任务分配的优化解.而在随后的运行中基于成功合作者集形成Agent联盟.该策略保证在接近任务分配优化解的情况下,有效减少系统中的可能联盟数以及联盟形成过程中的通信开销和计算量,避免联盟形成过程中的盲目性,节省协商时间提高协商效率.  相似文献   

2.
一种基于利益均衡的联盟形成策略   总被引:7,自引:0,他引:7  
联盟形成是多Agent系统中的一个关键问题,主要研究如何在联盟内Agent间划分联盟效用,使Agent在决策时愿意形成全局更优的联盟.但已有策略对额外效用的平均分配没有顾及后加入联盟的Agent的利益,不利于全局优化联盟的形成.对此,给出一种基于利益均衡的联盟形成策略,在非减性效用分配等原则的基础上,提高了对额外效用分配的合理性,在面向任务的领域中可以达到全局优化解,较好地满足了稳定性、时效性以及分布等要求.  相似文献   

3.
王皓  曹健 《计算机工程》2013,(12):216-222
在分布式环境下,现有Agent联盟构建算法不能解决带有相互依赖关系和转移成本的任务流程问题。为此,利用Agent协商构建联盟,在协商过程中设定方案发布Agent和参与Agent,并对应设计以成本信息调整和盈利任务争取为主的决策算法。在Agent的反馈信息中加入争取信息,允许参与Agent在多轮协商中采用可控制的信息泄露机制,通过泄露自己的成本信息向方案发布Agent争取可获利的任务,经过多轮协商,形成最优联盟结构。实验结果表明,在按劳分配联盟总收益的模式下,相比传统的信息不泄露机制,该信息泄露机制能够更快地形成联盟,并且具有更高的联盟净收益和Agent平均收益率。  相似文献   

4.
基于模糊评判的Agent联盟效用分配   总被引:1,自引:0,他引:1  
多个Agent同时形成任务求解联盟时,联盟效用的分配是一个棘手的问题。已有的平均分配和基于能力大小的分配策略都没有反映出Agent对联盟贡献的差异性,不利于联盟的形成和完成任务的绩效。提出了一种基于模糊评判的联盟效用分配方法。首先模糊评价Agent的各维能力贡献率,然后综合计算出整体贡献因子,并据此完成联盟效用的合理分配,最后通过实例分析说明了此方法的有效性。  相似文献   

5.
联盟形成是多Agent系统中一种重要的合作方式。人们设计了一系列联盟形成框架,较好地解决了联盟值最大化、任务分配、组合拍卖等问题。已有关于联盟形成的研究,较多地从效用、任务等角度来考虑问题。在一些情况下,仅从这些角度考虑联盟形成是不够的,于是我们从约束的角度来研究联盟形成。首先深刻分析了联盟形成时的约束问题,采用命题逻辑来描述对Agent的约束,给出了联盟偏好语言及其语义描述;接着给出了它的一些性质;最后将动态约束下的联盟形成机制与常见的一些联盟形成机制作了对比,体现了动态约束下联盟形成机制的特点。  相似文献   

6.
为了进一步增强多Agent联盟效用分配的合理性,提升联盟的稳定性,提出了一种基于评价因子行为等级更新的多Agent联盟效用分配策略。该策略引入评价因子概念,将行为等级定性描述的agent行为因素通过既定方法量化为行为评价因子,agent完成任务的能力表示为能力评价因子,结合这两种评价因子对agent联盟的效用进行划分,并根据agent完成任务情况和是否存在欺骗行为对agent的行为等级进行更新。理论分析和分配实验表明,新策略在满足联盟形成机制的相关要求外,增强了多Agent联盟中效用分配的合理性。  相似文献   

7.
提出了一种用于多Agent对抗环境下联盟形成的信任模型CORE,模型从能力和名誉两个方面来描述Agent的信任度,用能力向量空间中的距离公式来度量Agent胜任具体任务的能力大小,用隶属度函数来描述Agent的名誉。任务开始时,模型按信任度大小选取合适的Agent形成联盟,任务中Agent能力动态增长,名誉动态变化,任务结束后,模型根据联盟中Agent的表现情况计算新的信任度,作为下一个任务来临时联盟形成的依据。最后,在NetLogo平台上模拟实现了该模型。  相似文献   

8.
为了在协作学习系统中实现学习者Agent之间的有效合作,通过引入一种新的合作机制--同学关系网模型(Schoolmate Relation Web Model),来构建学习系统中学习者Agent之间的同学联盟,并且基于学习者Agent之间的同学联盟来实现多个学习者Agent之间的协作学习.在每个同学联盟中,任意两个Agent之间都具有同学关系,并且联盟中的所有Agent相互协作,共同完成学习任务.另外,联盟中的学习者Agent之间的通信不是直接进行的,而是通过一个黑板来进行,这可以显著地提高Agent之间的通信效率.由于同学关系网模型可以避免Agent联盟形成的盲目性,并且可以提高学习者Agent之间的交互效率,从而使得我们基于Agent同学联盟的协作学习系统可以实现学习者Agent之间的有效合作,弥补了现有协作学习系统的不足.  相似文献   

9.
多Agent系统中,Agent间通过形成联盟达到提高任务求解能力,获取更多收益的目的。主要关注联盟模型的改进和联盟形成阶段的改进,基于ARG(agent,role,group)元模型和学习机制提出了一种采用角色和学习机制的新联盟模型CLAR(coalition model based on learnin gagent and role);在采用合同网协议的CLAR联盟模型中提出了两阶段联盟形成机制;通过捕食者问题实验验证了角色和学习机制的作用,以及两阶段联盟形成机制在减少通讯代价上的作用。  相似文献   

10.
将虚拟企业联盟生成问题转化为多Agent问题,针对传统求解多Agent问题过程中仅考虑成本和联盟值最优的局限性,引入"一企多标"和资源配置等实际问题并给出解决方案。重点论述了基于改进的蚁群算法及任务能力排序的虚拟企业联盟生成方法,在求解过程中首先根据任务所需的核心能力对Agent集进行划分,然后利用改进的蚁群算法来求解该问题,以使满足该任务能力要求的Agent优先被选择,从而避免优势资源得不到利用的现象,起到合理配置资源的作用。通过模拟算例分析表明,该方法能有效、快速求解多虚拟企业联盟生成问题,表现了该方法的正确性。  相似文献   

11.
12.
联盟结构是对Agent集合的一个划分,通过联盟形成联盟结构,可以使Agent之间形成有效合作,完成单个Agent所不能完成的任务。本文提出了BIDP来求最优联盟结构,该算法利用整数二部拆分来生成二部划分,并利用二部拆分的界来对搜索空间进行限界。随后把该算法与DP算法做了理论和实验分析,理论上得出BIDP所需要的空间比DP减少33.3%。实验表明,当联盟值满足均匀分布和正态分布,BIDP在21个Agent的情况下,搜索空间比DP减少35%和92%。最后对求最优联盟结构的确定式算法作了总结,即时间复杂度的上界是O(3n),下界是Ω(2n),空间复杂度是Θ(2n)。  相似文献   

13.
并行多任务分配是多agent系统中极具挑战性的课题, 主要面向资源分配、灾害应急管理等应用需求, 研究如何把一组待求解任务分配给相应的agent联盟去执行. 本文提出了一种基于自组织、自学习agent的分布式并行多任务分配算法, 该算法引入P学习设计了单agent寻找任务的学习模型, 并给出了agent之间通信和协商策略. 对比实验说明该算法不仅能快速寻找到每个任务的求解联盟, 而且能明确给出联盟中各agent成员的实际资源承担量, 从而可以为实际的控制和决策任务提供有价值的参考依据.  相似文献   

14.
柳赛男  陈明亮 《控制与决策》2014,29(9):1724-1728

对网络舆情监测监控云平台上集聚的海量技术agent, 如果只是逐一agent 搜寻使联盟的利益最大化, 将耗费大量的时间和费用. 为解决该问题, 提出了基于“能力群”的动态联盟机制, 通过动态增加或删除“能力群”中的agent 来增加联盟完成复杂任务的能力; 并提出一种基于文化算法的“能力群”agent 联盟算法, 详细讨论了算法的流程、编码、选择、交叉和变异操作的规则, 以及基于“能力群”特征的交叉算法. 仿真结果表明, 所提出的算法是可行和有效的.

  相似文献   

15.
李祥全  王宁生  龙文  吴义生 《控制与决策》2005,20(11):1245-1250
针对组织网络化后各项目组存在的过剩任务和过剩人力资源的平衡问题,提出了基于多Agent且具备两种工作模式的人力资源再分配系统.在描述系统结构的基础上,研究了协商算法,改进了多标准的协商协议,并引入了Agent结盟机制.最后运用实例说明了多标准协商Agent之间如何通过结盟进行协商并最终获取最佳方案.  相似文献   

16.
胡晶晶  鲁漫红 《微处理机》2005,26(4):29-31,35
Agents联盟形成是分布人工智能DAI中一种重要的协作方法.本文简要分析了Agents联盟的结构、形式以及联盟结构问题的数学模型.对于可分解的任务,且子任务之间没有优先关系,Agents要形成多个联盟(联盟结构),文中研究了基于遗传算法的联盟结构形成算法,并对这种算法的并行化作了探讨.  相似文献   

17.
Coalition formation is a central problem in multiagent systems research, but most models assume common knowledge of agent types. In practice, however, agents are often unsure of the types or capabilities of their potential partners, but gain information about these capabilities through repeated interaction. In this paper, we propose a novel Bayesian, model-based reinforcement learning framework for this problem, assuming that coalitions are formed (and tasks undertaken) repeatedly. Our model allows agents to refine their beliefs about the types of others as they interact within a coalition. The model also allows agents to make explicit tradeoffs between exploration (forming “new” coalitions to learn more about the types of new potential partners) and exploitation (relying on partners about which more is known), using value of information to define optimal exploration policies. Our framework effectively integrates decision making during repeated coalition formation under type uncertainty with Bayesian reinforcement learning techniques. Specifically, we present several learning algorithms to approximate the optimal Bayesian solution to the repeated coalition formation and type-learning problem, providing tractable means to ensure good sequential performance. We evaluate our algorithms in a variety of settings, showing that one method in particular exhibits consistently good performance in practice. We also demonstrate the ability of our model to facilitate knowledge transfer across different dynamic tasks.  相似文献   

18.
Cooperating and sharing resources by creating coalitions of agents are important ways for autonomous agents to execute tasks and to maximize payoff. Such coalitions will form only if each member of a coalition gains more by joining the coalition than it could gain otherwise. There are several ways of creating such coalitions and dividing the joint payoff among the members. In this paper we present algorithms for coalition formation and payoff distribution in nonsuperadditive environments. We focus on a low-complexity kernel-oriented coalition formation algorithm. The properties of this algorithm were examined via simulations. These have shown that the model increases the benefits of the agents within a reasonable time period, and more coalition formations provide more benefits to the agents.
  相似文献   

19.
面向复杂任务结构的Agent联盟算法   总被引:1,自引:0,他引:1  
Agent联盟形成是多Agent系统的一个基本操作.多个Agent往往需要形成联盟来协作完成任务或者提高联盟体的能力.现有的Agent联盟算法并不考虑任务内部的结构.本文则考虑一类具有复杂内部结构的任务.任务由一组子任务构成,子任务之间存在着逻辑依赖关系,并且以BPMN的流程形式描述.本文还在此基础上加入了对相邻子任务之间的转移成本的考虑.并且本文提出了一种基于动态规划的多项式时间算法来解决此类加入了逻辑依赖关系和转移成本因素的Agent联盟问题.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号