首页 | 本学科首页   官方微博 | 高级检索  
     

并行学习神经网络集成方法
引用本文:王正群,陈世福,陈兆乾.并行学习神经网络集成方法[J].计算机学报,2005,28(3):402-408.
作者姓名:王正群  陈世福  陈兆乾
作者单位:1. 南京大学计算机软件新技术国家重点实验室,南京,210093;扬州大学信息工程学院,扬州,225009
2. 南京大学计算机软件新技术国家重点实验室,南京,210093
基金项目:国家自然科学基金(60273033),江苏省自然科学基金重点项目(BK2003067)资助.~~
摘    要:该文分析了神经网络集成中成员神经网络的泛化误差、成员神经网络之间的差异度对神经网络集成泛化误差的影响,提出了一种并行学习神经网络集成方法;对参与集成的成员神经网络,给出了一种并行训练方法,不仅满足了成员网络本身的精度要求,还满足了它与其余成员网络的差异性要求;另外,给出了一种并行确定集成成员神经网络权重方法.实验结果表明,使用该文的成员神经网络训练方法、成员神经网络集成方法能够构建有效的神经网络集成系统.

关 键 词:并行学习  神经网络  神经网络集成  机器学习  泛化误差

A Parallel Learning Approach for Neural Network Ensemble
WANG Zheng-Qun,CHEN Shi-Fu,CHEN Zhao-Qian.A Parallel Learning Approach for Neural Network Ensemble[J].Chinese Journal of Computers,2005,28(3):402-408.
Authors:WANG Zheng-Qun  CHEN Shi-Fu  CHEN Zhao-Qian
Affiliation:WANG Zheng-Qun 1),2) CHEN Shi-Fu 1) CHEN Zhao-Qian 1) 1
Abstract:After the relationship among the generalization errors of the neural networks en semble, the generalization error and the diversity of the component neural netwo rk is analyzed. A component neural networks parallel trained algorithm PLA is pr oposed, which encourages component neural network to learn from expected goal an d the others, so all component neural networks are trained simultaneously and in teractively. In the stage of combining component neural networks, a parallel w eight optimal approach GASEN-e is provided by expanding GASEN proposed by Zhou et al., which assigns weight for every component neural network and bias fo r their ensemble. Experiment results show that a neural networks ensemble system is efficiently constructed by PLA and GASEN-e.
Keywords:parallel learning  neural networks  neural  network ensemble  machine learning  generalization error  
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号