共查询到20条相似文献,搜索用时 125 毫秒
1.
基于粒子群神经网络的期货价格预测 总被引:3,自引:0,他引:3
目前在对中国期货市场进行价格预测时,采用神经网络预测时多用的是BP神经网络,但是BP神经网络存在对初始权阁值敏感、易陷入局部极值和收敛速度慢的问题.因此,为了提高模型效率,提出采用PSO-BP模型预测期货价格.首先运用粒子群算法代替BP神经网络的初始寻优,再用BP算法对优化的网络权闽值进一步精确优化,随后建立了基于粒子群算法的BP神经网络预测模型,并将其应用到中国期货市场的期货价格预测研究中.仿真结果表明,新模型结合了粒子群算法的全局寻优能力和BP神经网络算法的局部搜索优势,有效的防止了网络陷入局部极小值的可能,提高了神经网络模型预测的速度和准确性. 相似文献
2.
针对传统BP神经网络存在学习效率低、收敛速度慢和容易陷入局部极小值的问题,提出一种基于改进的PSO来优化BP神经网络的方法。通过在PSO算法中引入随机变化的加速常数来获得最优权值,对BP神经网络进行优化和训练,将优化的BP神经网络用于遗传高血压患病年龄的预测中。实验结果表明,该方法较好地解决了传统BP神经网络易陷入局部极小值的问题,提高了算法的收敛速度和稳定性。 相似文献
3.
针对于BP神经网络预测模型,收敛速度慢,精度较低,容易陷入局部极小值等缺点,提出了一种改进粒子群优化BP神经网络预测模型的算法。在该算法中,粒子群采用改进自适应惯性权重和改进自适应加速因子优化BP神经网络预测模型的初始权值和阈值,然后训练BP神经网络预测模型并预测。将该算法应用到几个典型的混沌时间序列预测。实验结果表明,该算法明显提高BP神经网络预测模型的收敛速度和预测模型的精度,减少陷入局部极小的可能。 相似文献
4.
针对BP神经网络存在易陷入局部极小值、收敛速度慢等问题,提出用遗传算法优化BP神经网络并用于房价预测。采用BP神经网络建立房价预测模型。利用遗传算法对BP神经网络的初始权值和阈值进行优化。选取1998年2011年贵阳市的房价及其主要影响因素作为实验数据,分别对传统的BP神经网络和经过遗传算法优化后的BP神经网络进行训练和仿真实验,结果表明,与传统的BP神经网络预测模型相比,经过遗传算法优化后的BP神经网络预测模型能加快网络的收敛速度,提高房价的预测精度。 相似文献
5.
针对BP神经网络训练学习速度慢、容易陷入局部极小值的缺陷,利用LM算法融合高斯-牛顿法和梯度下降法优点的快速性,充分利用遗传算法全局随机搜索强的优势,构建了三层5-6-1型的GA-LM-BP神经网络结构,优化BP神经网络的初始权值和阀值,减少了BP神经网络陷入局部极小值的几率。通过对锂离子电池数据进行了实验,结果表明了该方法预测的有效性。 相似文献
6.
为了预测未来一段时间的短时交通流,提出了一种利用BP神经网络进行预测的方法。将历史时刻的车流量作为网络输入,未来短时流量作为输出,采用单步预测。为了缩短收敛时间,避免陷入局部极小值,用遗传算法优化网络初始权值和阈值。对未优化与优化后的网络进行测试。实验证明,未优化的BP神经网络预测精度较低,且收敛时间较长;而遗传优化算法使预测精度及收敛速度得到极大改善,但样本的数量及质量是影响预测精度的关键要素。 相似文献
7.
在研究标准BP神经网络的基础上,针对其存在的收敛速度慢、且容易陷入局部极小值等问题进行分析,设计实现一种采用数值优化的方法来改进BP网络性能的新的混合神经网络模型.通过引入遗传模拟退火算法扩大了网络的权值更新空间,把得到最优权值赋予BP神经网络,从而使优化后的神经网络具有泛化性好,不易陷入局部极小值等优点.与标准BP神... 相似文献
8.
针对城市需水量预测中时间序列的非线性特性及传统BP网络预测收敛速度慢易陷入局部极小值等问题,将Chaos理论和BP神经网络理论相结合,提出了一种基于Chaos-BP理论的城市短期需水量COBP(ChaosBackPropagtion)预测模型。利用重构相空间的嵌入维数确定COBP网络的结构,通过混沌优化搜索,找到BP神经网络权值的全局最优值,并对其输出的“尖点”预测值进行混沌参数控制,实现城市短期需水量的预测。仿真分析表明,与传统预测模型相比,COBP预测模型所需训练数据样本少,收敛速度快、易达到全局最小值,预测结果整体误差的指标良好,呈现良好的综合预测性能。 相似文献
9.
BP神经网络虽然是目前应用最广泛的神经网络模型,但其自身有易陷入局部极小值和收敛速度慢的缺点。本文提出了一种利用混沌粒子群算法来改进BP神经网络。该算法的基本思想是用混沌粒子群算法对BP神经网络的初始权值和初始阈值进行优化。对粒子群算法进行混沌优化,提高粒子群算法的全局搜索能力;用混沌粒子群算法优化后得到的最优解作为BP神经网络的初始权值和阈值。通过对非线性函数的拟合实验,发现改进后的结果与普通的BP神经网络的结果相比,具有更高的准确性,提高了拟合的精度。 相似文献
10.
张立仿 《计算机与数字工程》2014,(4):660-663
由于BP神经网络本质上采用的是梯度下降算法,具有收敛速度慢、容易陷入局部极小点等缺陷.针对这种情况,用具有良好全局搜索能力的遗传算法来改进BP神经网络模型,对神经网络的初始权值和阈值进行优化.仿真结果表明,遗传BP神经网络具有良好的预测效果,预测精度比传统的BP神经网络要高,误差更小,说明了遗传BP神经网络对网络流量预测是高效可行的. 相似文献
11.
BP神经网络在混合气体浓度预测中得到广泛应用。针对BP神经网络收敛速度慢的特点,提出了一种新的基于小波变换的并列隐层双并联神经网络结构,这种网络首先对输入数据进行二维离散小波变换,然后用双并联神经网络对变换后两组数据进行训练,确定神经网络的权值和阈值。实验结果证明,相对传统的BP及双并联神经网络,基于小波变换的双并联神经网络的收敛速度加快2~3倍;对混合气体浓度的预测精度也有明显提高。 相似文献
12.
智能油漆配色系统的改进BP算法 总被引:2,自引:2,他引:2
BP算法具有数学意义明确、学习规则简单等优点,是前向多次神经网络的典型学习算法。但是,BP算法在学习过程中容易陷入局部最小问题。针对这一问题,提出一种修正Sigmoid函数的改进BP算法。实验证明,改进BP算法可以有效克服局部最小,显著提高收敛速度。 相似文献
13.
14.
王卫安 《网络安全技术与应用》2014,(8):17-18
本文针对目前基于BP神经网络的入侵检测已陷入局部极值和收敛速度慢等问题,提出一种基于改进的遗传算法和BP神经网络的混合入侵检测方法。仿真实验结果表明,此方法比单独使用BP神经网络的检测方法收敛速度更快,误差更小。 相似文献
15.
一种基于模拟退火的自适应算法 总被引:2,自引:0,他引:2
针对常规BP算法收敛速度慢和易陷入局部极小的问题,文章提出了一种新的BP算法———SASSFBP算法。该算法根据训练中最近两个梯度的符号及其相对大小来动态地改变权步因子,提高了神经网络的收敛速度,并同时结合模拟退火算法来避免陷入局部极小。仿真实验结果表明:SASSFBP算法在收敛速度与运算精度,以及避免陷入局部极小的能力等方面均明显优于常规的BP算法。 相似文献
16.
17.
18.
对于微波干燥褐煤的温度采样数据具有多峰非平稳特性,采用小波阈值滤波能够较好地保留原始数据的细节信息。而直接使用反向传播( BP)神经网络来建立对微波加热物料温度预测模型,具有预测精度低、收敛速度慢且容易陷入局部极小点等缺点。采用具有极强全局寻优能力的思维进化算法( MEA)来优化BP( MEA-BP)神经网络的初始权值和阈值。实验结果表明:经MEA-BP神经网络具有更高的预测精度和泛化能力,预测性能得到了显著的提高。 相似文献
19.
《Neural Networks, IEEE Transactions on》2006,17(5):1116-1125
This paper investigates new learning algorithms (LF I and LF II) based on Lyapunov function for the training of feedforward neural networks. It is observed that such algorithms have interesting parallel with the popular backpropagation (BP) algorithm where the fixed learning rate is replaced by an adaptive learning rate computed using convergence theorem based on Lyapunov stability theory. LF II, a modified version of LF I, has been introduced with an aim to avoid local minima. This modification also helps in improving the convergence speed in some cases. Conditions for achieving global minimum for these kind of algorithms have been studied in detail. The performances of the proposed algorithms are compared with BP algorithm and extended Kalman filtering (EKF) on three bench-mark function approximation problems: XOR, 3-bit parity, and 8-3 encoder. The comparisons are made in terms of number of learning iterations and computational time required for convergence. It is found that the proposed algorithms (LF I and II) are much faster in convergence than other two algorithms to attain same accuracy. Finally, the comparison is made on a complex two-dimensional (2-D) Gabor function and effect of adaptive learning rate for faster convergence is verified. In a nutshell, the investigations made in this paper help us better understand the learning procedure of feedforward neural networks in terms of adaptive learning rate, convergence speed, and local minima. 相似文献