首页 | 本学科首页   官方微博 | 高级检索  
     

一种提高神经网络泛化能力的新方法
引用本文:冯乃勤,邱玉辉,王芳. 一种提高神经网络泛化能力的新方法[J]. 计算机科学, 2006, 33(2): 201-204
作者姓名:冯乃勤  邱玉辉  王芳
作者单位:1. 西南师范大学计算机与信息科学学院,重庆,400715;河南师范大学计算机与信息技术学院,新乡,453007
2. 西南师范大学计算机与信息科学学院,重庆,400715
基金项目:河南省自然科学基金;教育部科技司资助项目
摘    要:提出了一种改进神经网络泛化能力的新方法——“缩放法”。这种方法通过对输入向量的缩放处理,来缩小或模糊化训练样本和新的模式之间的差别,从而使神经网络的泛化能力得以提高。文中提出的新算法——α算法,可以找到合适的缩放因子,进而得到泛化能力更强的新网络。一些实验例证了“缩放法”和α算法的有效性,并从理论上对其进行了分析和讨论。实验和分析表明,这种方法简单可靠,对许多神经网络和模式分类问题效果明显。

关 键 词:神经网络  泛化  误识率  模糊理论

A New Approach to Improve the Generalization Ability of Neural Network
FENG Nai-Qin,QIU Yu-Hui,WANG Fang. A New Approach to Improve the Generalization Ability of Neural Network[J]. Computer Science, 2006, 33(2): 201-204
Authors:FENG Nai-Qin  QIU Yu-Hui  WANG Fang
Abstract:A new approach to improve the generalization ability of neural network is presented based on an angle of fuzzy theory. This approach is put into effect through shrinking or magnifying the input vector, thereby reducing the difference between training set
Keywords:Neural network   Generalization   Misclassifieation rate   Fuzzy theory
本文献已被 CNKI 维普 万方数据 等数据库收录!
点击此处可从《计算机科学》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号