首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 62 毫秒
1.
提出了一种前馈神经网络混合学习算法。该算法综合考虑了影响神经网络性能的3个主要因素:权值、激励函数和拓扑结构。该算法以参数神经网络和结构学习为基础,并采用了学习速率矩阵。对双螺旋问题的仿真实验结果表明,该算法具有较快的收敛速度。  相似文献   

2.
前馈式神经网络的最小二乘学习算法   总被引:2,自引:2,他引:2  
通过对Sigmoid函数求逆,把非线性极值问题转化为线性方程组来处理,巧妙地避开了梯度,从而可以克服BP算法的一些缺点,提高了算法的收敛速度.同时采用最小二乘法来求解方程组,进一步提高了收敛速度.算法的计算过程为每次处理一个节点的所有前一层连接权,轮换处理,直到收敛到最小点.  相似文献   

3.
提高前馈神经网络学习效率的学习算法探讨   总被引:3,自引:0,他引:3  
简要分析了最速下降法(Steepest Descent Algorithm ,即SDA 法)和正交校正共轭梯度法(CGM-OC法)的优缺点,提出了一种进行多层前馈神经网络学习的新算法,即SD-CGM-OC算法.该算法结合最速下降法与正交校正共轭梯度法的特点,在文中所述实际问题构造模型的基础上,论证了SD-CGM-OC算法比传统的BP算法具有更高的学习效率和二次收敛率.实验结果验证了该学习算法的有效性.  相似文献   

4.
前馈式神经网络的最小二乘学习算法   总被引:1,自引:0,他引:1  
通过对 Sigmoid 函数求逆,把非线性极值问题转化为线性方程组来处理,巧妙地避开了梯度,从而可以克服 BP 算法的一些缺点,提高了算法的收敛速度.同时采用最小二乘法来求解方程组,进一步提高了收敛速度.算法的计算过程为每次处理一个节点的所有前一层连接权,轮换处理,直到收敛到最小点.  相似文献   

5.
通过分析前馈神经网络中各层权系数与误差能量之间的关系,在服从最小扰动原理下,本文提出了一个新的学习方法。该方法将网络训练问题变换为一系列的凸规划子问题,而这些子问题都可以在较短时间内获得全局最优解。文中给出的计算结果表明该方法很有发展前景。  相似文献   

6.
基于权值解耦思想,本文提出一种新的多层前馈网络学习算法,该学习算法的收敛速度比PB学习算法快,且比并行递推预测误差学习算法有更好的数值稳定性,文中论述了它与别的学习算法之间关系,并选取神经网络对非线性系统建模的例子进行仿真,说明新算法的有效性。  相似文献   

7.
本文首先讨论了组合式前馈神经网络原理和一般设计方法, 然后用两个仿真实验展示了组合式前馈神经网络在处理函数逼近和模式分类问题上的有效性。  相似文献   

8.
一种快速有效的神经网络新算法   总被引:2,自引:1,他引:2  
基于输出层函数为线性函数的层前馈神经网络,结合自适应步长和动量解耦的伪牛顿算法及迭代最小二乘法导出了一种混合算法。伪真证明该混合算法自适应能力强,计算量小,收敛速度快,是一种有效的工程实用算法。  相似文献   

9.
给出了一种新的用于推理的神经网络模型,讨论了权矩阵的确定方法和相应的自适应学习算法,并就合成关系的不同取法及意义进行了比较。  相似文献   

10.
本文详细推导了典型BP神经网络学习算法,并给出了一种基于动量和学习速率自适应调整的虎法。仿真结果表明,改进算法的学习速度和收敛性得到了明显的提高。  相似文献   

11.
前向神经网络学习算法研究   总被引:3,自引:0,他引:3  
利用优化算法中的信赖域法,选取了合适的计算模型,并具有全局收敛性、收敛快速性。BP网络学习算法对异或问题、逼近问题进行的具有统计意义的仿真,表明了该算法的有效性及对样本数量变化不敏感的特性。  相似文献   

12.
1IntroductionRadialbasisfunctionneuralnetworks(RBFNN)arewellsuitedforfunctionapproximationandpatternrecognitionduetotheirsimpletopologicalstructureandtheirabilitytorevealhowlearningproceedsinanexplicitmanner.Intheclassicalapproachtoradialbasisfunction(RBF)networkimplementation,thebasisfunctionsareusuallychosenasGaussianandthenumberofhiddenunits(i.e.centersandwidthsoftheGaussianfunctions)isfixedaprioribasedonsomepropertiesoftheinputdata.Theweightsconnectingthehiddenandoutputunitsareestimate…  相似文献   

13.
CMAC的一种快速学习方法   总被引:1,自引:0,他引:1  
研究了小脑模型连接控制器的快速学习方法,首先分析了学习过程中学习干扰的原因及学习精度,学习次数,内存单元数之间的关系,然后基于内存单元的初始化和学习亲本点的选择,构造了可快速精确地收敛于学习函数的快速学习方法-初始化随机法。  相似文献   

14.
Fuzzy logic systems are equivalent to feedforward neural networks   总被引:2,自引:0,他引:2  
Fuzzy logic systems and feedforward neural networks are equivalent in essence. First, interpolation representations of fuzzy logic systems are introduced and several important conclusions are given. Then three important kinds of neural networks are defined, i.e. linear neural networks, rectangle wave neural networks and nonlinear neural networks. Then it is proved that nonlinear neural networks can be represented by rectangle wave neural networks. Based on the results mentioned above, the equivalence between fuzzy logic systems and feedforward neural networks is proved, which will be very useful for theoretical research or applications on fuzzy logic systems or neural networks by means of combining fuzzy logic systems with neural networks.  相似文献   

15.
用于模式识别的前馈式神经网络区域映射模型   总被引:6,自引:3,他引:6  
提出了一种新的用于模式识别问题的前馈式神经网络模型-区域映射模型。该模型将输出空间每一类的特征参数区域映射成输出空间中对应的一个区域。模型具有训练和实际应用中分类标准相一致的性质,使模式识别分类更为合理和自然,相应的误差函数的改变可以加快网络的训练速度。  相似文献   

16.
应用前向人工神经网络模型建立了高校科学研究人员综合能力的系统评估模型,应用此模型,不但可以迅速得知每位科学研究人员的基本情况,而且可以显示出本校科研的基本概况。  相似文献   

17.
一种基于Akaike信息准则的极限学习机   总被引:1,自引:0,他引:1  
为了减小传统的极限学习机网络的规模及提高网络的泛化性能,利用Akaike信息准则作为学习的最优停止准则以选择合适的隐层节点数量,同时利用修正Gram Schmidt算法自动调整网络参数,提出改进的极限学习机网络构造算法。通过与传统极限学习机在通用标杆问题上的实验结果比较表明, 该改进的极限学习机具有更精简的网络结构和更快的学习速度,同时具有良好的学习精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号