排序方式: 共有6条查询结果,搜索用时 156 毫秒
1
1.
在高动态、开放、异质和分布式网络环境下,在线实体不可避免地需要在交互之前考虑其潜在合作伙伴的可信程度.由于实体通常不具备关于这些潜在合作伙伴的足够知识,因此从所谓第三方收集一些推荐信任信息是必要而且重要的.然而,由于目前没有关于信任的一致理解,推荐信任信息很难被实体理解和使用.信任本体的出现有助于解决这个问题,从而促进互操作性.但在实际上,目前仍没有一个可被所有实体全局共享的信任本体.提出一个采用本体映射来促进推荐信任信息理解的模型,该模型实现了基于不同信任本体的各参与方的有效交互,提高了在线环境中信任管理的灵活性、开放性和可扩展性. 相似文献
2.
对等网信誉系统的一个关键问题就是信誉评估的准确性,一般通过考察推荐方的反馈可信度来给其反馈加权.提出一种新的反馈可信度评估模型,模型基于推荐方历史推荐行为满意度预测其未来的推荐行为,模型提出的"虚检验"机制加速了评估的过程,并且提高了准确性.仿真和分析表明,模型能有效抑制恶意推荐行为,降低其对最终信誉评估的影响. 相似文献
3.
Q学习算法是一种最受欢迎的模型无关强化学习算法.本文通过对Q学习算法进行合适的扩充,提出了一种适合于多agent协作团队的共享经验元组的多agent协同强化学习算法,其中采用一种新的状态行为的知识表示方法使得状态行为空间得到缩减,采用相似性变换和经验元组的共享使得学习的效率得到提高.最后将该算法应用于猎人捕物问题域.实验结果表明该算法能够加快多个猎人合作抓捕猎物的进程,有利于协作任务的成功执行,并能提高多agent协作团队的协作效率,因此该算法是有效的. 相似文献
4.
5.
本文针对一类追求系统得益最大化的协作团队的学习问题,基于随机博弈的思想,提出了一种新的多Agent协同强化学习方法。协作团队中的每个Agent通过观察协作相识者的历史行为,依照随机博弈模型预测其行为策略,进而得出最优的联合行为策略。 相似文献
6.
本文提出了一种基于AUML和CPN的Agent交互协议建模和检验的方法。该方法的主要思想是首先利用AUML协议图对Agent交互协议进行描述;然后在此基础上利用各种通信协议 建模中常用的有色Petri网(CPN)来对交互协议进行描述,并进一步转换成为比较适合描述多个Agent并发交互的形式。此外,可以使用CPN的验证工具时CPN所描述的交互协议进行检验。 相似文献
1