首页 | 本学科首页   官方微博 | 高级检索  
     

并行的贝叶斯网络参数学习算法
引用本文:俞奎,王浩,姚宏亮,陈栋梁. 并行的贝叶斯网络参数学习算法[J]. 小型微型计算机系统, 2007, 28(11): 1972-1975
作者姓名:俞奎  王浩  姚宏亮  陈栋梁
作者单位:合肥工业大学,计算机科学与技术系,安徽,合肥,230009
基金项目:国家自然科学基金;高等学校博士学科点专项科研项目
摘    要:针对大样本条件下EM算法学习贝叶斯网络参数的计算问题,提出一种并行EM算法(Parallel EM,PL-EM)提高大样本条件下复杂贝叶斯网络参数学习的速度.PL-EM算法在E步并行计算隐变量的后验概率和期望充分统计因子;在M步,利用贝叶斯网络的条件独立性和完整数据集下的似然函数可分解性,并行计算各个局部似然函数.实验结果表明PL-EM为解决大样本条件下贝叶斯网络参数学习提供了一种有效的方法.

关 键 词:贝叶斯网络  EM算法  PL-EM算法
文章编号:1000-1220(2007)11-1972-04
修稿时间:2006-08-09

Parallel Algorithm for Bayesian Networks Parameter Learning
YU Kui,WANG Hao,YAO Hong-liang,CHEN Dong-liang. Parallel Algorithm for Bayesian Networks Parameter Learning[J]. Mini-micro Systems, 2007, 28(11): 1972-1975
Authors:YU Kui  WANG Hao  YAO Hong-liang  CHEN Dong-liang
Affiliation:Department of Computer Science and Technology ,Hefei University of Technology, Hefei 230009 ,China
Abstract:Because the EM algorithm requires significant computational resources for Bayesian Networks parameter learning under large databases,the PL-EM algorithm is proposed to improve the learning speed.The PL-EM algorithm parallel computes the posteriori probabilities of hidden variables and expected sufficient statistics at E step;at M step,the algorithm makes use of conditional independence and the decomposability of the likelihood function to parallel compute each local likelihood function.Experimental results show the PL-EM algorithm is an effective method to solve Bayesian parameter learning for large datasets.
Keywords:MPI
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号