共查询到19条相似文献,搜索用时 156 毫秒
1.
2.
3.
用构造性方法证明:对于给定的r阶多项式函数,可以具体地构造出一个三层泛函网络,以任意精度逼近该多项式,所构造的网络的中问神经元个数仅与多项式基函数的阶数r有关,并能用r表达.该文所得结果对于基于多项式基函数的泛函网络逼近任意函数类的网络具体构造和逼近具有理论指导意义. 相似文献
4.
正交泛函网络函数逼近理论及算法 总被引:1,自引:1,他引:0
基于正交函数的概念和特性,提出一种正交泛函网络新模型,给出了正交泛函网络学习算法.该算法是借助于正交函数性质和Lagrange乘数法做辅助函数,对泛函参数学习过程归结为求解一组线性方程组的过程.最后,通过函数逼近算例计算机仿真结果表明,该算法十分有效,具有模型简单、逼近精度高等特点. 相似文献
5.
给出一种求解泛函方程的泛函网络方法,设计了一种泛函网络模型用于逼近一类泛函方程的实根问题,并给出了相应地学习算法.该算法通过求解线性方程组可得到网络参数.相对于传统方法,该方法不但能够快速求出泛函方程的精确解,而且可获得所求泛函方程的近似解.计算机仿真结果表明,该算法可行有效. 相似文献
6.
7.
8.
基于泛函网络的结构特点和遗传规划的全局搜索能力,提出了广义基函数概念,通过改进遗传规划的编码方式对广义基函数进行学习,用最小二乘法设计适应度函数,从而确定泛函网络的最佳逼近结构模型。最后,4个数值仿真实例表明,该方法是有效可行的,具有较强的泛化特性。 相似文献
9.
10.
11.
将泛函网络引入软件可靠性预测,利用其比神经网络更好的解释性及其他性能,提出了基于泛函网络的软件可靠性多模型综合预测方法。首先阐述了泛函网络的结构和学习过程,然后将多个单一模型的预测值作为泛函网络的输入,将实际值作为输出,建立泛函网络结构,给出了泛函网络的学习算法,制定了3种训练策略,并进行了实验分析。实验结果表明:在第三种训练策略下,基于泛函网络的软件可靠性多模型综合预测方法有较高的预测精度,其预测效果比单个模型和Lyu提出的线性综合模型都好。 相似文献
12.
A. M. Abdelbar 《Neural computing & applications》1998,7(2):141-146
The HONEST neural network is a recently-developed generalisation of the well-known Sigma-Pi high order neural network. HONEST has previously been applied to diabetes forecasting and feature combination in an Othello evaluation function. In this paper, we apply HONEST to the classification into age-groups of abalone shellfish, a difficult bench-mark to which previous researchers have applied cascade correlation, standard backpropagation with a Multi-Layer Perceptron (MLP) network, Quinlan's C4.5, and the DYSTAL network. While the best reported test set performance by previous researchers is 65.61% correct classification, HONEST was able to achieve 72.89% correct test set classification. In addition, HONEST's transparent structure allows us to manually examine the network state and make observations about the solution the network has learned. 相似文献
13.
14.
15.
在神经科学和计算机科学等领域,研究人员通过统计模型和深度学习等方法探索不同状态间功能性脑网络工作机制的差别;但现有的功能性脑网络研究工具多用于寻找支持某种假设的证据或传达科学发现,存在功能单一的缺点;针对上述问题,文章设计并实现了一个用于功能性核磁共振数据的交互式可视分析系统BrainDVis,帮助研究人员寻找不同状态间功能性脑网络的多方面差异;BrainDVis将功能性脑网络差异分析功能、网络特征参数分析功能、模块化结构分析功能、功能性连接分析功能相关联,提供多视图协同交互的方法帮助研究人员自主探索,寻找差异;最后使用公开数据集进行实验,验证了系统的可行性和有效性。 相似文献
16.
基于遗传规划实现泛函网络神经元函数类型优化 总被引:1,自引:0,他引:1
泛函网络是最近提出的一种对神经网络的有效推广。与神经网络不同,它处理的是一般的泛函模型,其神经元函数不固定,而是可学习的,且在各个处理单元之间没有权值。同神经网络一样,至今还没有系统设计方法能够对给定问题设计出近似最优的结构。鉴于此,将整个泛函网络的设计分解为单个神经元的逐个设计;然后,在此框架下提出了基于遗传规划的单个神经元的设计方法,该方法可实现对神经元函数类型的优化。仿真实验表明,本方法是有效可行的,能用较小的网络规模获得更满意的泛化特性。 相似文献
17.
18.
Convergence Analysis of Batch Gradient Algorithm for Three Classes of Sigma-Pi Neural Networks 总被引:1,自引:1,他引:0
Sigma-Pi (Σ-Π) neural networks (SPNNs) are known to provide more powerful mapping capability than traditional feed-forward
neural networks. A unified convergence analysis for the batch gradient algorithm for SPNN learning is presented, covering
three classes of SPNNs: Σ-Π-Σ, Σ-Σ-Π and Σ-Π-Σ-Π. The monotonicity of the error function in the iteration is also guaranteed.
相似文献
相似文献
19.
A feedforward Sigma-Pi neural network with a single hidden layer of m neurons is given by /sup m//spl Sigma//sub j=1/c/sub j/g(n/spl Pi//sub k=1/x/sub k/-/spl theta//sub k//sup j///spl lambda//sub k//sup j/) where c/sub j/, /spl theta//sub k//sup j/, /spl lambda//sub k//spl isin/R. We investigate the approximation of arbitrary functions f: R/sup n//spl rarr/R by a Sigma-Pi neural network in the L/sup p/ norm. An L/sup p/ locally integrable function g(t) can approximate any given function, if and only if g(t) can not be written in the form /spl Sigma//sub j=1//sup n//spl Sigma//sub k=0//sup m//spl alpha//sub jk/(ln|t|)/sup j-1/t/sub k/. 相似文献