共查询到20条相似文献,搜索用时 0 毫秒
1.
基于约束最大信息熵的贝叶斯网络结构学习算法 总被引:3,自引:0,他引:3
贝叶斯网络的学习可分为结构学习和参数学习.基于约束最大信息熵的结构学习算法是一种以搜索最高记分函数为原则的方法.本文以KL距离、相互信息以及最大相互信息为基础,通过附加合适的约束函数降低变量维数和网络结构的复杂度,提出了一种附加约束的最大熵记分函数,并结合爬山法设计一种贝叶斯网络结构学习的启发式算法.通过与著名的K2和B&B-MDL算法的实验比较,结果表明该算法在时间和精度上都具有较好的效果. 相似文献
2.
基于三维特征参数的贝叶斯推理电路功耗模型 总被引:1,自引:0,他引:1
在功耗与信号统计分析的基础上,采用贝叶斯推理技术建立周期精确的功耗宏模型.通过分析信号特征对电路功耗的影响,选择输入信号密度Pin、输入跳变密度Din和输出跳变密度Dout作为贝叶斯推理的三维特征参数,证明了上述特征参数对信号时间和空间相关性信息的覆盖.实验结果表明,该方法较目前的门级功耗分析速度提高400余倍,周期功耗平均误差可以控制在10%以内. 相似文献
3.
对信息熵理论进行了概述,提出了客观熵权(OEW)的概念,并给出了OEW的构造方法,进而建立了主成分投影(PCP)的综合决策模型,并在土地质量综合决策中进行了应用.结果表明,提出的方法是有效的、合理的. 相似文献
4.
传统机器学习和数据挖掘算法主要基于两个假设:训练数据集和测试数据集具有相同的特征空间和数据分布.然而在实际应用中,这两个假设却难以成立,从而导致传统的算法不再适用.迁移学习作为一种新的学习框架能有效地解决该问题.着眼于迁移学习的一个重要分支——归纳迁移学习,提出了一种基于最大熵模型的加权归纳迁移学习算法WTLME.该算法通过将已训练好的原始领域模型参数迁移到目标领域,并对目标领域实例权重进行调整,从而获得了精度较高的目标领域模型.实验结果表明了该算法的有效性. 相似文献
5.
基于多议题协商的贝叶斯学习 总被引:2,自引:0,他引:2
随着Internet的日益完善和电子商务的普及,如何快速、高效地进行agent协商学习是必须面对和解决的一个重要问题。文中从买方agent的观点出发,在协商过程中采用贝叶斯学习机制进行在线更新对方agent的信念,从而缩短了协商时间,提高了协商效率,并实验说明了其可行性。 相似文献
6.
词义消歧要解决的问题是如何让计算机理解多义词在特定的上下文环境中具体代表的语义。多义词多为常用词,在语料中出现的频率很高。确立一种合适的建模方法,并选择一种行之有效的机器学习方法,是解决词义消歧问题的首要任务。贝叶斯模型在词义消歧中的构建和实现上相对要简便易用,机器学习过程也简洁高效,特别是贝叶斯模型作为词义消歧工具,无论是实现的效率,还是消歧的效果都比较理想。 相似文献
7.
贝叶斯网模型的学习、推理和应用 总被引:17,自引:0,他引:17
近年来在人工智能领域,不确定性问题一直成为人们关注和研究的焦点。贝叶斯网是用来表示不确定变量集合联合概率分布的图形模式,它反映了变量间潜在的依赖关系。使用贝叶斯网建模已成为解决许多不确定性问题的强有力工具。基于国内外最新的研究成果对贝叶斯网模型的学习、推理和应用情况进行了综述,并对未来的发展方向进行了展望。 相似文献
8.
王双成 《计算机工程与应用》2005,41(18):11-12,187
给出了变量之间k阶分类能力的概念及计算方法,并证明了k阶分类能力就是k阶分类正确率,以及k阶分类能力和条件独立性的等价性,在此基础上构造出基于分类能力的贝叶斯网络结构打分函数,同时结合依赖分析方法和打分-搜索方法建立了有效的贝叶斯网络结构学习方法,实验结果显示该方法能够有效地进行贝叶斯网络结构学习,并使学习得到的结构倾向于简单化。 相似文献
9.
10.
作战重心(Center of Gravity)是指战役体系中敌我双方的关键环节。作战重心评估是一个经验性、模糊性的过程。贝叶斯网络作为一种不确定知识表示模型,具有概率论及图论基础,对于解决复杂系统决策问题具有较强的优势,适合用于作战重心评估。文中提出并实现了一种基于贝叶斯网络推理的作战重心评估模型。通过该模型,可以定量地评估各个环节对于证据的重要程度,从而确定该作战过程中的作战重心。文中使用联合树(Clique Tree)算法进行贝叶斯网络精确推理,并详细阐述了推理过程中联合树建立,消息传递的过程。最后通过实例验证,基于贝叶斯网络推理的模型能够有效地对作战重心进行定量的评估。 相似文献
11.
基于多信号模型的故障诊断算法研究 总被引:2,自引:2,他引:0
多信号模型是一种简单而有效的系统建模表示方法,在测试性分析与故障诊断领域得到了广泛的应用;本文结合示例给出了多信号模型的建模和分析过程,并由多信号模型得到了故障-测试相关矩阵;在信息熵理论的基础上,通过定义新的目标函数,本文对最优测试序列的生成进行了具体算法分析,并由此得出了最优诊断树,与TEAMS工具箱的仿真结果一致;和其他方法相比,该方法不仅结果更加优化,而且效率更高,易于计算机编程实现,对测试性分析工具的研发具有一定的参考价值。 相似文献
12.
吴绍兵 《计算机技术与发展》2012,(11):225-228,234
随着互联网的飞速发展,公开获取可靠信息的不断增加,人们可从网络上获取各种各样的信息资源,这给人们的学习和利用信息带来了极大的方便。同时面对浩如烟海的海量信息,如何在短时间内获取人们感兴趣和有用的信息,成为目前关注的热点。同时信息提取活动是一个复杂的过程,基于此,文中提出了一种利用贝叶斯网络的方法来对信息进行有效提取的方法,得出了贝叶斯网络信息提取模型。通过VC++6.0编程,模拟实现了所提出的方法,实验结果表明该方法是可行的。 相似文献
13.
一种贝叶斯网络结构学习的优化策略 总被引:3,自引:0,他引:3
罗海蛟 《自动化技术与应用》2005,24(5):12-13,39
贝叶斯网络(Bayesian Network,BN)近年成为数据挖掘引人注目的研究方向,贝叶斯网络的学习也就是要找出一个能够最真实反映现有数据集中各数据变量相互之间的依赖关系的贝叶斯网络模型。本文针对BN结构学习的Jie Cheng&David Bell算法作了相关研究并提出了优化策略(MJAC算法)。本文最后以一个经典概率模型验证了优化算法的可行性。 相似文献
14.
15.
16.
研究算法改进,提高计算性能,贝叶斯网络是解决不确定性问题的一种有效方法,在很多领域得到了广泛应用。参数学习是贝叶斯网络构建的重要环节,但含隐变量、连续变量的参数学习是非常困难的。为解决上述问题,提出了一种人工鱼群算法的贝叶斯网络参数学习方法,并进一步通过调整人工鱼随机移动速度的方法提高了算法的收敛性能和速度。最后,将参数学习方法在由Noisy-Or和Noisy-And节点组成的贝叶斯网络中进行了仿真,仿真结果表明了参数学习方法,特别是改进后方法的可行性和优越性。 相似文献
17.
18.
一种基于贝叶斯网络模型的交通事故预测方法 总被引:5,自引:0,他引:5
大部分的交通事故都可以预测.有效的交通事故预测能从很大程度上减少人员伤亡和交通阻塞.贝叶斯网络是目前不确定知识和推理领域最有效的理论模型之一.该文提出了一种基于贝叶斯网络模型理论的交通事故预测方法.在综合考虑交通事故成因的基础上利用领域专家知识构建网络模型,在已有的事故数据的基础上提出基于贝叶斯法则的学习算法,并通过计算变量间的条件概率来计算事故发生的可能性,达到事故预测的目的.文章的最后,通过历史数据进行仿真实验,对仿真结果和该模型的适用范围进行了分析. 相似文献
19.
针对混合算法学习贝叶斯网络结构存在易陷入局部最优、搜索精度低等问题,提出了采用蝙蝠算法和约束结合的贝叶斯网络结构混合算法。首先应用最大最小父子(Max-min parents and children,MMPC)节点集合构建初始无向网络的框架,然后利用蝙蝠算法进行评分搜索并确定网络结构中边的方向。最后应用上述算法学习ALARM网,并和最大最小爬山(the max-min hill climbing,MMHC)算法,贪婪搜索算法相比较,结果表明在增加边、反转边、删除边以及结构海明距离方面都有不同程度的减少,表明改进算法具有较强的学习能力和良好的收敛速度。 相似文献
20.
Lazy Learning of Bayesian Rules 总被引:19,自引:0,他引:19
The naive Bayesian classifier provides a simple and effective approach to classifier learning, but its attribute independence assumption is often violated in the real world. A number of approaches have sought to alleviate this problem. A Bayesian tree learning algorithm builds a decision tree, and generates a local naive Bayesian classifier at each leaf. The tests leading to a leaf can alleviate attribute inter-dependencies for the local naive Bayesian classifier. However, Bayesian tree learning still suffers from the small disjunct problem of tree learning. While inferred Bayesian trees demonstrate low average prediction error rates, there is reason to believe that error rates will be higher for those leaves with few training examples. This paper proposes the application of lazy learning techniques to Bayesian tree induction and presents the resulting lazy Bayesian rule learning algorithm, called LBR. This algorithm can be justified by a variant of Bayes theorem which supports a weaker conditional attribute independence assumption than is required by naive Bayes. For each test example, it builds a most appropriate rule with a local naive Bayesian classifier as its consequent. It is demonstrated that the computational requirements of LBR are reasonable in a wide cross-section of natural domains. Experiments with these domains show that, on average, this new algorithm obtains lower error rates significantly more often than the reverse in comparison to a naive Bayesian classifier, C4.5, a Bayesian tree learning algorithm, a constructive Bayesian classifier that eliminates attributes and constructs new attributes using Cartesian products of existing nominal attributes, and a lazy decision tree learning algorithm. It also outperforms, although the result is not statistically significant, a selective naive Bayesian classifier. 相似文献