首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 82 毫秒
1.
小数据集贝叶斯网络多父节点参数的修复   总被引:1,自引:0,他引:1  
具有已知结构的小数据集贝叶斯网络多父节点参数学习是一个重要而困难的研究课题,由于信息不充分,使得无法直接对多父节点参数进行有效的估计,如何修复这些参数便是问题的核心.针对问题提出了一种有效的小数据集多父节点参数修复方法,该方法首先使用Bootstrap抽样扩展小数据集,然后分别将Gibbs抽样与最大似然树和贝叶斯网络相结合,通过依次对扩展数据按一定比例的迭代修正来实现对多父节点参数的修复.实验结果表明,这种方法能够有效地使大部分多父节点参数得到修复.  相似文献   

2.
具有丢失数据的贝叶斯网络结构学习研究   总被引:40,自引:0,他引:40       下载免费PDF全文
王双成  苑森淼 《软件学报》2004,15(7):1042-1048
目前主要基于EM算法和打分-搜索方法进行具有丢失数据的贝叶斯网络结构学习,算法效率较低,而且易于陷入局部最优结构.针对这些问题,建立了一种新的具有丢失数据的贝叶斯网络结构学习方法.首先随机初始化未观察到的数据,得到完整的数据集,并利用完整数据集建立最大似然树作为初始贝叶斯网络结构,然后进行迭代学习.在每一次迭代中,结合贝叶斯网络结构和Gibbs sampling修正未观察到的数据,在新的完整数据集的基础上,基于变量之间的基本依赖关系和依赖分析思想调整贝叶斯网络结构,直到结构趋于稳定.该方法既解决了标准Gi  相似文献   

3.
用于因果分析的混合贝叶斯网络结构学习   总被引:2,自引:0,他引:2  
目前主要结合扩展的熵离散化方法和打分一搜索方法进行混合贝叶斯网络结构学习,算法效率和可靠性低,而且易于陷入局部最优结构。针对问题建立了一种新的混合贝叶斯网络结构迭代学习方法.在迭代中,基于父结点结构和Gibbs sampling进行混合数据聚类,实现对连续变量的离散化,再结合贝叶斯网络结构优化调整,使贝叶斯网络结构序列逐渐趋于稳定,可避免使用扩展的熵离散化和打分——搜索所带来的主要问题.  相似文献   

4.
贝叶斯网络是用来描述不确定变量之间潜在依赖关系的图形模型。从完备数据集上学习贝叶斯网络是一个研究热点。分析了完备数据集上构建贝叶斯网的常见理论方法。  相似文献   

5.
肖蒙  张友鹏 《计算机科学》2015,42(4):253-257
针对贝叶斯网络中多父节点条件概率分布参数学习问题,提出了一种适用于多态节点、模型不精确、样本信息不充分情形的参数学习方法.该方法利用因果机制独立假设,分解条件概率分布,使条件概率表的规模表现为父节点个数和状态数的线性形式;利用Leaky Noisy-MAX模型量化了多态系统模型未含因素对参数学习的影响;从小样本数据集中获取模型参数并合成条件概率表.结果表明,该方法能提高参数学习效率与精度.  相似文献   

6.
具有丢失数据的可分解马尔可夫网络结构学习   总被引:14,自引:0,他引:14  
王双成  苑森淼 《计算机学报》2004,27(9):1221-1228
具有丢失数据的可分解马尔可夫网络结构学习是一个重要而困难的研究课题,数据的丢失使变量之间的依赖关系变得混乱,无法直接进行可靠的结构学习.文章结合最大似然树和Gibbs抽样,通过对随机初始化的丢失数据和最大似然树进行迭代修正一调整,得到修复后的完整数据集;在此基础上基于变量之间的基本依赖关系和依赖分析思想进行可分解马尔可夫网络结构学习,能够避免现有的丢失数据处理方法和可分解马尔可夫网络结构学习方法存在的效率和可靠性低等问题.试验结果显示,该方法能够有效地进行具有丢失数据的可分解马尔可夫网络结构学习.  相似文献   

7.
针对小数据集条件下贝叶斯网络参数学习问题,约束最大似然(CML)和定性最大后验概率(QMAP)方法是两种约束适用性较好的方法.当样本数量、约束数量、参数位置不同时,上述两种方法互有优劣,进而导致方法上的难以选择.因此,本文提出一种自适应参数学习方法:首先,利用CML和QMAP方法学习得到两组参数;然后,基于拒绝–接受采样和空间最大后验概率思想自定义计算得到样本权重、约束权重、参数位置权重;最后,基于上述参数和权重计算得到新的参数解.实验表明:在任何条件下,本文方法计算得到参数的精度接近甚至优于CML和QMAP方法的最优解.  相似文献   

8.
基于数据的贝叶斯网络结构学习是一个NP难题.基于条件约束和评分搜索相结合的方法是贝叶斯网络结构学习的一个热点.基于互信息理论提出一种最大支撑树(MWST)机制,并基于最大支撑树结合贪婪搜索的思想提出一种简化贪婪算法.简化贪婪算法不依赖先验知识,完全基于数据集.首先,通过计算互信息建立目标网络的最大支撑树;然后,在最大支撑树的基础上学习初始网络结构,最后,利用简化搜索机制对初始结构进一步优化,最终完成贝叶斯网络的结构学习.数据仿真实验证明,简化贪婪算法不仅具有很高的精度而且具有高效率.  相似文献   

9.
利用互信息学习贝叶斯网络结构   总被引:4,自引:0,他引:4  
由数据构造贝叶斯网络结构是NP-难问题,因此提出了一种基于互信息的改进算法.该算法根据互信息构造初始框架,其次利用最大支撑树算法精简初始框架,并通过条件独立测试添加方向,最后利用贪婪算法得到最优网络结构.数值实验表明,改进算法无论是在B IC的得分值,还是在结构的误差上都有一定的改善,并且在迭代次数、运行时间上均有明显降低,能较快地确定出与数据匹配程度最高的网络结构.  相似文献   

10.
针对小数据集情况下贝叶斯网络(BN)参数学习结果精度较低的问题,分析了小数据集情况下BN参数变权重设计的必要性,提出一种基于变权重融合的BN参数学习算法VWPL。首先根据专家经验确定不等式约束条件,计算参数学习最小样本数据集阈值,设计了随样本量变化的变权重因子函数;然后根据样本计算出初始参数集,通过Bootstrap方法进行参数扩展得到满足约束条件的候选参数集,将其代入BN变权重参数计算模型即可获取最终的BN参数。实验结果表明,当学习数据量较小时,VWPL算法的学习精度高于MLE算法和QMAP算法的,也优于定权重学习算法的。另外,将VWPL算法成功应用到了轴承故障诊断实验中,为在小数据集上进行BN参数估计提供了一种方法。  相似文献   

11.
针对小数据集条件下的贝叶斯网络(Bayesian network,BN)参数学习问题,提出了一种基于双重约束的贝叶斯网络参数学习方法. 首先,对网络中的参数进行分析并将网络中的参数划分为: 父节点组合状态相同而子节点状态不同的参数和父节点组合状态不同而子节点状态相同的参数;然后,针对第一类参数提出了一种新的基于Beta分布拟合的贝叶斯估计方法,而针对第二类参数利用已有的保序回归估计方法进行学习,进而实现了对网络中参数的双重约束学习;最后,通过仿真实例说明了基于双重约束的参数学习方法对小数据集条件下贝叶斯网络参数学习精度提高的有效性.  相似文献   

12.
贝叶斯网络结构学习的发展与展望   总被引:9,自引:0,他引:9  
贺炜  潘泉  张洪才 《信息与控制》2004,33(2):185-190
从最初的概率贝叶斯网络构建阶段到涌现大量研究成果的因果贝叶斯网络结构学习阶段,本文完整地回顾了贝叶斯网络结构学习的整个发展历程,并对该领域当前存在的问题及相关研究进行分析论述,给出了研究展望.值得一提的是,贝叶斯网络结构学习正在成为因果数据挖掘的主流.  相似文献   

13.
目前,学习具有丢失数据的贝叶斯网络结构主要采用结合EM算法的打分-搜索方法和基于依赖分析的思想,其效率和可靠性比较低.本文针对此问题建立一个新的具有丢失数据的贝叶斯网络结构学习算法.该方法首先根据贝努里分布来表示数据库中变量结点之间的关系,并用Kullback-Leibler(KL)散度来表示同一结点的各个案例之间的相似程度,然后根据Gibbs取样来得出丢失数据的取值.最后,用启发式搜索完成贝叶斯网络结构的学习.该方法能够有效避免标准Gibbs取样的指数复杂性问题和现有学习方法存在的主要问题.  相似文献   

14.
具有丢失数据的贝叶斯网络结构学习算法   总被引:2,自引:0,他引:2  
学习具有丢失数据的贝叶斯网络结构主要采用结合 EM 算法的打分一搜索方法,其效率和可靠性比较低.针对此问题建立一个新的具有丢失数据的贝叶斯网络结构学习算法.该方法首先用 Kullback-Leibler(KL)散度来表示同一结点的各个案例之间的相似程度,然后根据 Gibbs 取样来得出丢失数据的取值.最后,用启发式搜索完成贝叶斯网络结构的学习.该方法能够有效避免标准 Gibbs 取样的指数复杂性问题和现有学习方法存在的主要问题.  相似文献   

15.
许建锐  李战武  徐安 《计算机科学》2017,44(Z11):437-441
针对小样本数据条件下的贝叶斯网络结构学习,首先利用核密度估计(Kernel Density Estimation,KDE)对小规模样本数据进行拓展,然后引用云遗传算法(Cloud Theory-based Genetic Algotithm,CGA)对贝叶斯网络结构进行学习。通过优化改进核密度函数及其窗宽提高数据拓展效果;通过将云理论引入遗传算法中,自适应地改变交叉率和变异率,避免了算法局部寻优问题。仿真结果验证了该算法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号