共查询到20条相似文献,搜索用时 678 毫秒
1.
不对称信息下的协商机制设计 总被引:1,自引:0,他引:1
探讨交易双方存在不对称信息结构下协商机制的设计问题,给出了具有激励相容性,事后理性协商机制的完全刻画,在此基础上探讨了其效率问题,分别给出了上述机制的具有事前有效性和事后有效性的完全刻画,最后应用协商双方价值具有线性相关性的实例予以说明。 相似文献
2.
把人工智能的Agent技术和经济学的不完全信息动态博弈方法结合起来,在买方的立场上通过约束满足机制实现了自动协商的过程。该方法及自动协商过程可用于解决电子商务协商领域中的协商效率不高的问题。 相似文献
3.
4.
信任协商是分布式环境下陌生实体通过交替地披露属性证书建立信任关系的有效方法。分析了现有研究的不足,给出了职责行为和约束条件的定义,并在此基础上引入状态变化系统,定义了信任协商抽象模型。该模型不仅刻画了协商实体之间的交互性,而且也刻画了授权操作的自主性。最后提出了扩展的Ack策略,对敏感信息的保护进行了分析。 相似文献
5.
6.
7.
一个基于多阶段的多Agent多问题协商框架 总被引:8,自引:0,他引:8
多问题协商是电子交易中的关键问题.多Agent技术的不断成熟为这个问题的解决提供了有效的途径.提出了一个以理性Agent为基础的基于多阶段的多问题协商框架,该框架在时间约束下适用于信息不完全的场景,它描述了多问题的价格协商.为了降低多问题协商的复杂性,它将多问题协商分解为多阶段协商,每个阶段的大小(问题数)相同.阶段数和顺序在协商前确定,每个阶段中的问题顺序在协商中确定.在阶段大小相同的情况下,对给定协商问题的分解,框架能给出优化协商议程(agenda).尤其是框架能为参与协商的Agent建立学习系统(LS),以增强Agent的学习能力.最后基于这个框架实现了一个原型系统,原型系统证明这个框架是有效的. 相似文献
8.
网格系统采用委托授权有效地解决了分布状态下的授权问题,但其动态变化将打破委托授权模式下不同安全域间访问权限的全局一致性。为解决该问题,采用了一种基于策略的自动协商机制。为及时发现问题并在相关安全域间快速协商和恢复双方访问权限的全局一致性,该机制定义了一组用于引导协商过程自动进行的策略规则,并给出一个系统必须遵循的协商状态转换图,从而在事件触发器的推动下,自动实施协商过程的状态变换,实现权限协商并重新授权。测试结果表明,与人工协商相比,该自动协商机制提高了解决问题的效率,改善了系统性能,并简化了管理者的安全维护管理工作。 相似文献
9.
基于神经网络的协商学习机制 总被引:1,自引:0,他引:1
多agent协商研究中,如何通过学习提高协商效率是一个重要的课题,目前的研究多采用简单的学习算法,学习效果不好。论文首先提出了一个两方多回合交互协商框架,然后依据协商历史结果、协商双方初次出价等信知,对协商结果信息进行预测,从而确定协商交互中的推理策略,并利用BP神经网络的自适应、自学习能力对协商结果预测机制进行学习。随后的验证系统表明,该机制通过对协商结果的有效预测,提高了协商交互的效率和协商个体的效用。 相似文献
10.
一种劝说式多Agent多议题协商方法 总被引:9,自引:0,他引:9
多Agent系统中的协商问题往往由许多议题组成,导致问题空间十分庞大.传统的协商方法通过对问题空间进行穷尽搜索来找到最优解,并不适合多议题协商.而且,传统的方法不考虑协商偏好变化的情况,使得Agent在不完全及不正确环境下找到的最优解并不合理.提出一种劝说式多Agent多议题协商方法.借助信念修正这一有效的推理工具,协商Agent能够在协商过程中接受协商对手的劝说,考虑对手对协商议题的偏好,并根据一种基于辩论的信念修正方法调整自身的偏好.这样就能够使协商Agent对变化的协商环境具备适应性,从而提高协商的效率及正确率,快速准确地达成协议. 相似文献
11.
12.
N. A. Kudryashov P. N. Ryabov B. A. Petrov 《Automatic Control and Computer Sciences》2015,49(7):508-513
The features of dissipative structure formation, which is described by the periodic boundary value problem for the Kuramoto–Sivashinsky equation, are investigated. A numerical algorithm based on the pseudospectral method is presented. The efficiency and accuracy of the proposed numerical method are proved using the exact solution of the equation under study. Using the proposed method, the process of dissipative structure formation, which is described by the Kuramoto–Sivashinsky equation, is studied. The quantitative and qualitative characteristics of this process are described. It is shown that there is a value of the control parameter for which the dissipative structure formation processes occur. Via cyclic convolution, the average value of the control parameter is found. In addition, the dependence of the amplitude of the formed structures on the value of the control parameter is analyzed. 相似文献
13.
《IEEE transactions on pattern analysis and machine intelligence》1976,(4):285-292
Backtracking is a well-known technique for solving combinatorial problems. It is of interest to programming methodologists because 1) correctness of backtracking programs may be difficult to ascertain experimentally and 2) efficiency is often of paramount importance. This paper applies a programming methodology, which we call control structure abstraction, to the backtracking technique. The value of control structure abstraction in the context of correctness is that proofs of general properties of a class of programs with similar control structures are separated from proofs of specific properties of individual programs of the class. In the context of efficiency, it provides sufficient conditions for correctness of an initial program which may subsequently be improved for efficiency while preserving correctness. 相似文献
14.
15.
通过分析传统中值滤波与自适应中值滤波算法的特点,提出了先验自适应中值滤波算法。该算法的思路是先对噪声进行检测与标识,再构造噪声标识矩阵,根据中值滤波算法原理在取中值时排除邻域内噪声点的灰度值。该算法避免了过度滤波,在保证滤波效果的前提下提高了滤波效率。 相似文献
16.
Trie数据结构是实现高速路由查找和分组转发的关键。由于商业原因,各厂商的实现方案都是保密的。为此,本文设计实现了便于高速动态路由查找的trie数据结构,并进一步实现了在trie数据结构上的基于前缀值的动态最长前缀匹配算法,提高了路由查找速度和分组发效率。 相似文献
17.
针对现有基于策略梯度的深度强化学习方法应用于办公室、走廊等室内复杂场景下的机器人导航时,存在训练时间长、学习效率低的问题,本文提出了一种结合优势结构和最小化目标Q值的深度强化学习导航算法.该算法将优势结构引入到基于策略梯度的深度强化学习算法中,以区分同一状态价值下的动作差异,提升学习效率,并且在多目标导航场景中,对状态价值进行单独估计,利用地图信息提供更准确的价值判断.同时,针对离散控制中缓解目标Q值过估计方法在强化学习主流的Actor-Critic框架下难以奏效,设计了基于高斯平滑的最小目标Q值方法,以减小过估计对训练的影响.实验结果表明本文算法能够有效加快学习速率,在单目标、多目标连续导航训练过程中,收敛速度上都优于柔性演员评论家算法(SAC),双延迟深度策略性梯度算法(TD3),深度确定性策略梯度算法(DDPG),并使移动机器人有效远离障碍物,训练得到的导航模型具备较好的泛化能力. 相似文献
18.
19.