首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
基于粒子群神经网络的期货价格预测   总被引:3,自引:0,他引:3  
目前在对中国期货市场进行价格预测时,采用神经网络预测时多用的是BP神经网络,但是BP神经网络存在对初始权阁值敏感、易陷入局部极值和收敛速度慢的问题.因此,为了提高模型效率,提出采用PSO-BP模型预测期货价格.首先运用粒子群算法代替BP神经网络的初始寻优,再用BP算法对优化的网络权闽值进一步精确优化,随后建立了基于粒子群算法的BP神经网络预测模型,并将其应用到中国期货市场的期货价格预测研究中.仿真结果表明,新模型结合了粒子群算法的全局寻优能力和BP神经网络算法的局部搜索优势,有效的防止了网络陷入局部极小值的可能,提高了神经网络模型预测的速度和准确性.  相似文献   

2.
针对传统BP神经网络存在学习效率低、收敛速度慢和容易陷入局部极小值的问题,提出一种基于改进的PSO来优化BP神经网络的方法。通过在PSO算法中引入随机变化的加速常数来获得最优权值,对BP神经网络进行优化和训练,将优化的BP神经网络用于遗传高血压患病年龄的预测中。实验结果表明,该方法较好地解决了传统BP神经网络易陷入局部极小值的问题,提高了算法的收敛速度和稳定性。  相似文献   

3.
针对于BP神经网络预测模型,收敛速度慢,精度较低,容易陷入局部极小值等缺点,提出了一种改进粒子群优化BP神经网络预测模型的算法。在该算法中,粒子群采用改进自适应惯性权重和改进自适应加速因子优化BP神经网络预测模型的初始权值和阈值,然后训练BP神经网络预测模型并预测。将该算法应用到几个典型的混沌时间序列预测。实验结果表明,该算法明显提高BP神经网络预测模型的收敛速度和预测模型的精度,减少陷入局部极小的可能。  相似文献   

4.
针对BP神经网络存在易陷入局部极小值、收敛速度慢等问题,提出用遗传算法优化BP神经网络并用于房价预测。采用BP神经网络建立房价预测模型。利用遗传算法对BP神经网络的初始权值和阈值进行优化。选取1998年2011年贵阳市的房价及其主要影响因素作为实验数据,分别对传统的BP神经网络和经过遗传算法优化后的BP神经网络进行训练和仿真实验,结果表明,与传统的BP神经网络预测模型相比,经过遗传算法优化后的BP神经网络预测模型能加快网络的收敛速度,提高房价的预测精度。  相似文献   

5.
针对BP神经网络训练学习速度慢、容易陷入局部极小值的缺陷,利用LM算法融合高斯-牛顿法和梯度下降法优点的快速性,充分利用遗传算法全局随机搜索强的优势,构建了三层5-6-1型的GA-LM-BP神经网络结构,优化BP神经网络的初始权值和阀值,减少了BP神经网络陷入局部极小值的几率。通过对锂离子电池数据进行了实验,结果表明了该方法预测的有效性。  相似文献   

6.
为了预测未来一段时间的短时交通流,提出了一种利用BP神经网络进行预测的方法。将历史时刻的车流量作为网络输入,未来短时流量作为输出,采用单步预测。为了缩短收敛时间,避免陷入局部极小值,用遗传算法优化网络初始权值和阈值。对未优化与优化后的网络进行测试。实验证明,未优化的BP神经网络预测精度较低,且收敛时间较长;而遗传优化算法使预测精度及收敛速度得到极大改善,但样本的数量及质量是影响预测精度的关键要素。  相似文献   

7.
在研究标准BP神经网络的基础上,针对其存在的收敛速度慢、且容易陷入局部极小值等问题进行分析,设计实现一种采用数值优化的方法来改进BP网络性能的新的混合神经网络模型.通过引入遗传模拟退火算法扩大了网络的权值更新空间,把得到最优权值赋予BP神经网络,从而使优化后的神经网络具有泛化性好,不易陷入局部极小值等优点.与标准BP神...  相似文献   

8.
针对城市需水量预测中时间序列的非线性特性及传统BP网络预测收敛速度慢易陷入局部极小值等问题,将Chaos理论和BP神经网络理论相结合,提出了一种基于Chaos-BP理论的城市短期需水量COBP(ChaosBackPropagtion)预测模型。利用重构相空间的嵌入维数确定COBP网络的结构,通过混沌优化搜索,找到BP神经网络权值的全局最优值,并对其输出的“尖点”预测值进行混沌参数控制,实现城市短期需水量的预测。仿真分析表明,与传统预测模型相比,COBP预测模型所需训练数据样本少,收敛速度快、易达到全局最小值,预测结果整体误差的指标良好,呈现良好的综合预测性能。  相似文献   

9.
BP神经网络虽然是目前应用最广泛的神经网络模型,但其自身有易陷入局部极小值和收敛速度慢的缺点。本文提出了一种利用混沌粒子群算法来改进BP神经网络。该算法的基本思想是用混沌粒子群算法对BP神经网络的初始权值和初始阈值进行优化。对粒子群算法进行混沌优化,提高粒子群算法的全局搜索能力;用混沌粒子群算法优化后得到的最优解作为BP神经网络的初始权值和阈值。通过对非线性函数的拟合实验,发现改进后的结果与普通的BP神经网络的结果相比,具有更高的准确性,提高了拟合的精度。  相似文献   

10.
由于BP神经网络本质上采用的是梯度下降算法,具有收敛速度慢、容易陷入局部极小点等缺陷.针对这种情况,用具有良好全局搜索能力的遗传算法来改进BP神经网络模型,对神经网络的初始权值和阈值进行优化.仿真结果表明,遗传BP神经网络具有良好的预测效果,预测精度比传统的BP神经网络要高,误差更小,说明了遗传BP神经网络对网络流量预测是高效可行的.  相似文献   

11.
BP神经网络在混合气体浓度预测中得到广泛应用。针对BP神经网络收敛速度慢的特点,提出了一种新的基于小波变换的并列隐层双并联神经网络结构,这种网络首先对输入数据进行二维离散小波变换,然后用双并联神经网络对变换后两组数据进行训练,确定神经网络的权值和阈值。实验结果证明,相对传统的BP及双并联神经网络,基于小波变换的双并联神经网络的收敛速度加快2~3倍;对混合气体浓度的预测精度也有明显提高。  相似文献   

12.
智能油漆配色系统的改进BP算法   总被引:2,自引:2,他引:2  
BP算法具有数学意义明确、学习规则简单等优点,是前向多次神经网络的典型学习算法。但是,BP算法在学习过程中容易陷入局部最小问题。针对这一问题,提出一种修正Sigmoid函数的改进BP算法。实验证明,改进BP算法可以有效克服局部最小,显著提高收敛速度。  相似文献   

13.
具有混沌学习率的BP算法   总被引:1,自引:0,他引:1       下载免费PDF全文
葛君伟  沙静  方义秋 《计算机工程》2010,36(23):168-170
针对BP算法在训练过程中容易陷入局部极小值,导致收敛速率慢的问题,探讨一种利用混沌的遍历特性改进学习效率的算法,用Matlab软件对改进算法进行仿真。实验结果表明,该算法能够提高神经网络的学习效率和收敛精度,较好地避免网络陷入局部极小点。  相似文献   

14.
本文针对目前基于BP神经网络的入侵检测已陷入局部极值和收敛速度慢等问题,提出一种基于改进的遗传算法和BP神经网络的混合入侵检测方法。仿真实验结果表明,此方法比单独使用BP神经网络的检测方法收敛速度更快,误差更小。  相似文献   

15.
一种基于模拟退火的自适应算法   总被引:2,自引:0,他引:2  
针对常规BP算法收敛速度慢和易陷入局部极小的问题,文章提出了一种新的BP算法———SASSFBP算法。该算法根据训练中最近两个梯度的符号及其相对大小来动态地改变权步因子,提高了神经网络的收敛速度,并同时结合模拟退火算法来避免陷入局部极小。仿真实验结果表明:SASSFBP算法在收敛速度与运算精度,以及避免陷入局部极小的能力等方面均明显优于常规的BP算法。  相似文献   

16.
针对传统BP算法存在的收敛速度过慢、易陷入局部极小、缺乏统一的理论指导网络结构设计的缺点,分析了一般的改进算法在神经网络优化过程中存在的问题,从蚁群算法和BP算法融合的角度上,并引入了放大因子,提出一种综合改进的BP算法。该算法引入放大因子改善BP算法易陷入局部极小的情况,结合蚁群算法用于指导网络结构设计,并极大地改善了收敛速度过慢的问题。最后,将改进的BP算法与传统BP算法进行应用于煤矿瓦斯预测。通过对实验结果的分析,从时间和正确率上都表明改进的BP算法要优于传统的BP算法。  相似文献   

17.
小波神经网络(WNN)是将小波理论和神经网络理论结合起来的一种神经网络,有较强的函数学习能力和推广能力及广阔的应用前景。采用基于WNN的BP权值平衡算法对多传感器测量的结果进行特征级的数据融合,融合结果提供给决策级判断。该融合算法避免了BP网络收敛速度慢,易产生局部最优解等缺点,提高了学习的速度、精度。仿真结果表明了该方法的有效性。  相似文献   

18.
对于微波干燥褐煤的温度采样数据具有多峰非平稳特性,采用小波阈值滤波能够较好地保留原始数据的细节信息。而直接使用反向传播( BP)神经网络来建立对微波加热物料温度预测模型,具有预测精度低、收敛速度慢且容易陷入局部极小点等缺点。采用具有极强全局寻优能力的思维进化算法( MEA)来优化BP( MEA-BP)神经网络的初始权值和阈值。实验结果表明:经MEA-BP神经网络具有更高的预测精度和泛化能力,预测性能得到了显著的提高。  相似文献   

19.
This paper investigates new learning algorithms (LF I and LF II) based on Lyapunov function for the training of feedforward neural networks. It is observed that such algorithms have interesting parallel with the popular backpropagation (BP) algorithm where the fixed learning rate is replaced by an adaptive learning rate computed using convergence theorem based on Lyapunov stability theory. LF II, a modified version of LF I, has been introduced with an aim to avoid local minima. This modification also helps in improving the convergence speed in some cases. Conditions for achieving global minimum for these kind of algorithms have been studied in detail. The performances of the proposed algorithms are compared with BP algorithm and extended Kalman filtering (EKF) on three bench-mark function approximation problems: XOR, 3-bit parity, and 8-3 encoder. The comparisons are made in terms of number of learning iterations and computational time required for convergence. It is found that the proposed algorithms (LF I and II) are much faster in convergence than other two algorithms to attain same accuracy. Finally, the comparison is made on a complex two-dimensional (2-D) Gabor function and effect of adaptive learning rate for faster convergence is verified. In a nutshell, the investigations made in this paper help us better understand the learning procedure of feedforward neural networks in terms of adaptive learning rate, convergence speed, and local minima.  相似文献   

20.
一种快速收敛的改进BP算法的研究   总被引:4,自引:2,他引:2  
在分析普通BP算法的基础上提出了一种改进的BP算法(MBP),用以克服普通BP算法收敛速度慢、易陷入局部最小点的缺点.算法的核心是改变Sigmoid函数的微分表达式,加入幂因子S和R,用以提高网络输出误差项在整个目标函数中的相对影响.收敛性分析表明,MBP算法保持了普通BP算法的梯度下降特性,但具有更快收敛速度和更好的收敛精度,并且可跳出局部最小点.通过对一个非线性系统的模型辨识仿真实验,直观上证明了该算法的有效性和可行性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号