首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
设计了一类单输入单输出泛函网络与双输入单输出泛函网络作为构造层次泛函网络基本模型。提出了一种层次泛函网络模型,给出了层次泛函网络构造方法和学习算法,而层次泛函网络的参数利用解方程组来进行逐层学习。以时间序列中典型的Hénon映射为例,通过比较分析看出,层次泛函网络更适合于时间序列分析。计算机仿真结果表明,这种层次学习方法,对时间序列具有收敛速度快和逼近精度高等特点。  相似文献   

2.
序列泛函网络模型及其学习算法与应用   总被引:4,自引:0,他引:4  
通过对泛函网络的分析,提出了一种序列泛函网络模型及学习算法,而网络的泛函参数利用梯度下降法来进行学习.在此基础上,给出了9种典型泛函方程对应的序列泛函网络求解模型以及一种基于序列泛函网络学习算法的求解泛函方程方法.通过算例进行仿真实验,结果表明,该方法十分有效,具有收敛速度快、计算精度高、泛化性能好等特点,解决了传统的数值方法难以求解泛函方程这个问题.该方法可用于一般泛函方程求解问题.  相似文献   

3.
本文提出了一种新的基于泛函网络的多项式求根模型及学习算法,而泛函网络的参数利用解线性不等式组,可得到所求任意高阶多项式近似根的一般参数表达式。文章还讨论了基于泛函网络的多项式求根学习算法实现的一些技术问题,相对传统方法,能够有效地获得任意多项式对应根的参数表达式。  相似文献   

4.
将泛函神经元结构变形,建立Sigma-Pi泛函网络模型,给出Sigma-Pi泛函网络学习算法。采用数值分析的方法,将Sigma-Pi泛函网络应用于异或问题,结果表明,该网络对于某些问题具有很强的分类能力。该方法的优点在于利用一元函数作为基函数来实现高维函数的逼近,在函数逼近技术上,有着重要的应用价值。  相似文献   

5.
王二威  吴祈宗 《计算机科学》2015,42(10):175-179
将泛函网络引入软件可靠性预测,利用其比神经网络更好的解释性及其他性能,提出了基于泛函网络的软件可靠性多模型综合预测方法。首先阐述了泛函网络的结构和学习过程,然后将多个单一模型的预测值作为泛函网络的输入,将实际值作为输出,建立泛函网络结构,给出了泛函网络的学习算法,制定了3种训练策略,并进行了实验分析。实验结果表明:在第三种训练策略下,基于泛函网络的软件可靠性多模型综合预测方法有较高的预测精度,其预测效果比单个模型和Lyu提出的线性综合模型都好。  相似文献   

6.
泛函网络是类似于人工神经网络的新型网络模型,是泛函方程的网络表达形式。本文针对复杂泛函网络构造和学习中存在的问题,提出了多输入泛函网络模型MIOFN。通过对该模型的分析,提出了简化和学习的方法,并进行了仿真实验。结果表明,本文提出的MIOFN运行是可靠的,在工程应用中是有效可行的。  相似文献   

7.
给出一种求解泛函方程的泛函网络方法,设计了一种泛函网络模型用于逼近一类泛函方程的实根问题,并给出了相应地学习算法.该算法通过求解线性方程组可得到网络参数.相对于传统方法,该方法不但能够快速求出泛函方程的精确解,而且可获得所求泛函方程的近似解.计算机仿真结果表明,该算法可行有效.  相似文献   

8.
基于泛函网络的非线性回归预测模型及学习算法   总被引:1,自引:0,他引:1       下载免费PDF全文
在非线性回归预测中,预测函数的拟合是其难点和关键,直接影响预测精度。当系统非线性较强时,传统方法不易于处理,拟合和预测结果不理想。泛函网络是最近提出的一种对神经网络的有效推广,在处理非线性问题时有一定的优势。为此提出了基于泛函网络的非线性回归预测模型和相应的学习算法。并分别就一元非线性回归预测和多元非线性回归预测给出了相应的实例。计算机仿真结果表明,泛函网络预测模型拟合度和预测精度都明显高于某些传统的方法,有较好的理论和应用价值。  相似文献   

9.
利用Banach压缩映射原理,结合层次系统的思想,提出一种自适应泛函网络循环结构和代数算法,该循环结构是由多层基本泛函网络构成,每层用代数算法训练结构的泛函参数,从而实现对整体网络结构的逼近学习。通过算例分析表明,该算法具有计算精度高、收敛速度快等特点。  相似文献   

10.
正交泛函网络函数逼近理论及算法   总被引:1,自引:1,他引:0  
基于正交函数的概念和特性,提出一种正交泛函网络新模型,给出了正交泛函网络学习算法.该算法是借助于正交函数性质和Lagrange乘数法做辅助函数,对泛函参数学习过程归结为求解一组线性方程组的过程.最后,通过函数逼近算例计算机仿真结果表明,该算法十分有效,具有模型简单、逼近精度高等特点.  相似文献   

11.
基于HFLANN自组织多项式网络学习算法   总被引:2,自引:0,他引:2  
首先提出一种双曲函数型神经网络HFLANN,设计出一类基于HFLANN网络的层次双曲型函数网络HHFLANN,给出了HHFLANN的网络学习算法,使其在用于非线性的拟合中体现了较强的优越性,对于任意的Volterra级数使用HHFLANN网络来逼近是完全可行的,该算法较GMDH算法和SOP算法,具有快速简单的特性,它优于GMDH算法,有规律地选取部分多项式;优于SOP算法,在构造SOP网络不需要太多的中间隐层,从而加快了学习过程,提高了网络的逼近性能,更适合于具有层次结构的应用领域。  相似文献   

12.
文中首先设计出一类双曲函数型神经网络,提出一种层次双曲函数型网络,分析了其逼近特性,给出了其整体学习算法,使之更适合于具有层次知识结构背景的应用领域。因此,这种网络具有广泛的应用前景。  相似文献   

13.
钟玮  陈宝兴  陈宇 《计算机工程》2012,38(18):90-92
用图的笛卡尔积Fm×Fm-1×…×F1×G构造一类新的层次双环网络,给出其最优路由算法。图G为Petersen图,Fi为特殊的无向双环网络。研究网络的一些基本性质,并与杜艳等构造的层次双环网络(计算机工程与应用,2010年,第34期)进行比较。分析结果表明,新构造的网络是一类接连度小、直径短,存在简单且路由算法最优的新型网络拓扑结构。  相似文献   

14.
一种基于区间优化的神经网络学习算法   总被引:2,自引:0,他引:2  
薛继伟  李耀辉  陈冬芳 《计算机工程》2006,32(4):192-193,216
神经网络的学习算法通常是采用梯度下降法,此方法容易陷入局部极小而得到次最优解。另外,对于有些应用来说,用于训练网络的样本的输入/输出数据无法精确给出,而只能以一定的范围的形式给出,这就给传统的神经网络带来了困难。该文提出了一种基于区间优化的神经网络学习算法,可以很好地解决上面所提到的传统神经网络学习算法的缺点。  相似文献   

15.
基于曲面形状误差的多层前向神经网络快速训练   总被引:3,自引:0,他引:3  
如何显著提高多层前向神经网络训练速度一直是国内外共同关注的一个问题,而解决这个问题的关键在于充分了解导致现有网络训练算法训练效率低的根本原因.文中首先提出了网络输出函数的曲面形状误差和偏移误差的概念,并将指导网络训练的平方和误差分解为这两种误差,进而分析了这两种误差的主要特性,给出了导致现有算法网络训练效率低的主要原因,最后提出了新的网络训练误差模型和具体的网络训练算法.典型实例计算结果表明,与目前常用的网络训练算法相比,该文所提出的算法可显著减少网络训练时间。  相似文献   

16.
基于复合正交神经网络的自适应逆控制系统   总被引:10,自引:0,他引:10  
叶军 《计算机仿真》2004,21(2):92-94
目前,在自适应逆控制系统中常采用BP神经网络,而BP网络存在算法复杂、易陷入局部极小解等不足。而正交神经网络能克服BP网络的不足,但由于正交神经网络学习算法存在某些局限性,提出了一种复合正交神经网络,该正交网络结构与三层前向正交网络相同,不同的是正交网络的隐单元处理函数采用带参数的Sigmoid函数的复合正交函数,该神经网络算法简单,学习收敛速度快,并能对网络的函数参数进行优化,为非线性系统的动态建模提供了一种方法。仿真实验表明,网络在用于过程的自适应逆控制中具有很高的控制精度和自适应学习能力。该动态神经网络比其它神经网络具有更强的建模能力与学习适应性,有线性、非线性逼近精度高等优异特性,非常适合于实时控制系统。  相似文献   

17.
基于商空间的构造性分层竞争网络算法   总被引:1,自引:1,他引:1  
构造性学习方法根据学习样本构造神经网络,有效地解决了神经网络结构难以确定和学习速度慢的问题。文中在此基础上,利用商空间的粒度原理和霍夫曼编码的思想,对样本分布极其不均匀的分类问题,构造分层竞争覆盖网络。实例表明这种算法可以进一步提高训练的速度和识别的精度,减少拒识样本。  相似文献   

18.
马润年  张强  许进 《计算机学报》2003,26(8):1021-1024,F003
Hopfield神经网络是一类应用非常成功的人工神经网络模型,它是研究这个反馈神经网络的基础.该文主要研究离散时间、连续状态的反馈神经网络,它是Hopfield神经网络的推广.众所周知,研究反馈神经网络的稳定性不仅被认为是神经网络最基本、最主要的问题之一,同时也是神经网络各种应用的基础.文中主要研究离散时间反馈神经网络的稳定性,给出了连接权矩阵非对称的并且输入-输出函数是一般的S-函数的新的渐近收敛性条件及相应的收敛性结论.所获结果不仅推广了一些已有的结论,而且为反馈神经网络的应用提供了一定的理论基础.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号