首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
考虑三层前馈神经网络隐结点学习问题.在分析同类与不同类训练样本在隐层输出上体现的差异的基础上,提出了一种在权值学习过程中动态地用除网络隐结点数的学习算法.数值结果表明本文算法是可行的.  相似文献   

2.
前馈神经网络隐层结构点设计的一个学习算法   总被引:4,自引:0,他引:4  
叶东毅 《电子学报》1997,25(11):126-128
考虑三层前馈神经网络隐结点学习问题。在分析同类民不同类训练样本在隐层输出上体现的差异的基础上,提出了一种在权值学习过程中动态地删除网络隐结点数的学习算法。数值结果表明本文算法法可行的。  相似文献   

3.
针对传统BP算法中隐层神经元数不易选取的问题,本文提出了BP算法的改进模型——DBP (Double BP)网络模型.该模型可以动态自调节隐层神经元数,即通过一个给定先验知识的BP网络动态调节另一个BP网络中隐层神经元数,并且通过选取合适的权值和阈值使训练误差曲线迅速下降.解决了BP网络拓扑结构中隐层神经元个数以及新增加权值和阈值的选取问题,还对BP网络在陷入假饱和区如何逃逸提出了一种新的方法.最后通过仿真模拟取得了比较好的效果.  相似文献   

4.
在研究多层感知器结构后,提出一种利用U-D分解卡尔曼滤波训练多层网的新算法.仿真结果表明:与BP算法比较,此算法有着学习速度快、数值稳定性好、对学习参数不敏感、能避免局部极小点等特点。  相似文献   

5.
戴宪华 《电子学报》1999,27(7):59-62
本文从统计学的角度研究多层多隐元前神经网络(NN)的参数估计学习问题,利用NN激励函数的析线线性近似,提出一种求解多隐层多隐元NN每个隐元指导信号(隐含观测量)的新方法,利用每个隐元的指导信号估计可以半多隐多层多隐元NN的参数估计学习转化为多个相互独立的单隐元NN参数估计学习训练问题,从而将复杂系统参数估计问题转化为简单系统的参数估计问题而得以解决。  相似文献   

6.
结构优化的RBF神经网络学习算法   总被引:9,自引:0,他引:9  
文章提出了一种自动“删减”隐层神经元的RBF神经网络学习算法。模拟结果表明,该算法训练的RBF网络不仅结构得以优化,同时性能良好,可能成功地应用于模式分类和时间序列预测问题中。  相似文献   

7.
SOI结构中隐埋介质层的离子合成=-1994,23(6).-3~12从八十年代中期起,SOI结构隐埋介质层离子合成技术就引起了研究界的广泛注意,虽然离子合成化合物本身早已为人们熟知,但真正认识到它在形成SOI结构方面的前景则是在微电子技术发展和离子注...  相似文献   

8.
提高BP网络训练速度的研究   总被引:15,自引:0,他引:15  
由于误差函数的高维复杂性,BP网络在目前的应用中存在训练速度慢、甚至导致网络系统瘫痪的问题,针对训练中的归一化问题、隐层节点数的选取、样本数目的增减法、整体学习率的确定及训练算法进行了研究。  相似文献   

9.
SIMOX结构隐埋氧化层的体电学传导=BulkelectricalconductionintheburiedoxideofSIMOXstructure[刊,英]/Revesz,A.G.…//J.Electrochem.Soc.-1993,140(11...  相似文献   

10.
设计规则驱动的多层布线算法   总被引:1,自引:1,他引:0  
迷宫算法是集成电路两端线网优化布线问题的经典算法。多层布线受复杂版图设计规则约束.简单直接应用迷宫布线算法,或者无法获得优化的结果,或者无法满足设计规则。文章分析了迷宫算法特性与局限.提出基于群组图的多层迷宫算法,圆满地解决了上述问题。  相似文献   

11.
戴宪华 《电子学报》2000,28(10):133-137
研究回馈神经网络(RNN)参数估计的新方法.利用隐含观测量,将复杂RNN的训练分解为线性输出层和多个单隐元的参数估计.基于每个隐元激励函数的多点线性近似,RNN可利用统计混合专家网络模型(ME)描述,从而将RNN的参数估计转化为包含隐含观测量的线性系统的最大似然估计问题,最后利用期望最大化(EM)算法获得RNN的隐含观测量及其参数估计.  相似文献   

12.
提出了一种新型复数前馈神经网络的学习算法。当输入层和隐层之间的权值计算出来后,就可以通过求解线性方程组得到隐层和输出层之间的权值。这些权值是全局最小点。另一方面,本文算法很容易确定全局最小点时隐层神经元的个数。本文算法具有很高的训练精度和学习速度。  相似文献   

13.
Based on global optimisation, a new genetic algorithm for training hidden Markov models (HMMs) is proposed. The results of speech recognition are presented and a comparison made with the classic training HMM algorithm  相似文献   

14.
基于最小二乘隐空间支持向量机的IDS检测算法的设计   总被引:2,自引:2,他引:0  
在基于支持向量机的基础上,提出一种新的利用最小二乘隐空间支持向量机设计IDS的检测算法,解决了网络入侵检测系统中检测算法的分类精度不高、训练样本数需要较多,及训练学习时间较长等问题.仿真实验结果表明,本算法较基于支持向量机的检测算法具有更快的收敛性、更快的迭代速度、更高的检测精度和更低的误报率.  相似文献   

15.
基于混合递阶遗传算法的判决反馈RBF网络信道均衡器设计   总被引:3,自引:0,他引:3  
针对判决反馈RBF网络信道均衡器的结构特点,提出了一种混合递阶遗传算法,对网络隐层结构以及径向基函数中心和宽度采用递阶结构联合编码并分层次进行遗传操作,不仅可以确定隐层节点参数,同时也可以确定隐层节点数, 解决了网络拓扑结构的优化设计问题;将网络参数空间划分为线性空间和非线性空间分别进行优化训练,简化了递阶遗传操作空间,加速算法收敛。  相似文献   

16.
针对矿用刮板输送机的故障诊断问题,提出一种基于GA-BP神经网络的故障诊断方法。为了避免BP神经网络易陷入局部最小值、隐含层节点数难确定等问题,这里首先根据经验公式缩小隐含层节点数范围,在小范围里寻找最优的隐含层节点数;进而根据遗传算法具有全局寻优的特点,用遗传算法优化BP神经网络训练的初始权值阈值。研究表明经经验公式寻找最优隐含层节点数后,再将遗传算法与BP神经网络结合可以有效地解决神经网络收敛速度慢,易陷入局部最小等问题,提高了刮板输送机传动部的故障诊断精度。通过仿真实验验证了文中方法的有效性。  相似文献   

17.
提出了一种基于最大相对界的改进隐马尔可夫模型训练方法.为解决隐马尔可夫模型的传统Baum_Welch训练算法在识别声目标时的局限以及现存区分训练算法泛化能力不足的问题,在经典隐马尔可夫模型为初始模型的基础上,定义了相对界,并通过最大化最小相对界建立一个最优化问题,用梯度下降法进行迭代求解,得到基于相对界的隐马尔可夫模型...  相似文献   

18.
一种新的量子神经网络训练算法   总被引:2,自引:0,他引:2  
孙健  张雄伟  孙新建 《信号处理》2011,27(9):1306-1312
量子神经网络是一种借鉴量子理论中的态叠加思想而设计的单隐层前馈神经网络,其主要用于数据分类。由于采用多层激励函数神经元,并且在量子间隔训练中采用了新的目标函数,即同类输入数据的隐层节点输出方差最小,从而使量子神经网络具备了发掘不同类别数据间模糊性的能力。但由于训练时对量子神经网络权值和量子间隔使用了不同的目标函数,使迭代过程中两者不可避免的会出现相互冲突,从而导致训练迭代次数的增加和网络性能的下降。本文借鉴约束优化理论,在两个目标函数的梯度下降求解中引入了惩罚函数,提出了一种新的量子神经网络训练算法,消除了两个目标函数间的冲突。实验结果表明,本文提出的训练算法可以显著提升训练的速度和网络的性能。   相似文献   

19.
前向神经网络的神经元分层逐个线性优化快速学习算法   总被引:1,自引:0,他引:1  
本文提出了一种新的前向神经网络快速分层学习算法.在此学习算法中,其优化策略为对输出层和隐层神经元的连接权值交替优化.对输出层权值优化算法采用基于广义逆的最小二乘递推算法,对隐层神经元的连接权值采取则对每个神经元逐个进行优化,而且采用正交变换加快每一步学习的计算速度和提高算法的数值稳定性.当学习过程停滞时采用随机扰动的方法摆脱过早收敛.数值实验表明,与BP动量因子法、牛顿型方法和现有的分层优化算法相比,新算法不仅学习速度快学习时间短,而且当网络规模增大时仍然比较有效.  相似文献   

20.
本文针对三层前馈网络提出一种全新的学习算法,该法克服了传统BP算法因用梯度下降和误差逆向传播而拖慢收敛速度及易陷于局部极小的缺点。所提出的算法是代数型的,计算复杂度为多项式阶。文中给出的一个非线笥时间序列训练算例表明:新算法较BP算法在计算精度和速度方面均有大幅度提高,在网络规模变大时此算法的优点尤为明显。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号