首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
一种新颖的混沌时间序列分析方法   总被引:1,自引:0,他引:1  
本文提出了一种新颖的混沌时间序列分析方法,即从被加性高斯白噪声污染的混沌时间序列中估计其系统参数并同时进行噪声抑制的方法。假定产生混沌时间序列的模型已知,但相应的参数未知。这种新方法把对混沌时间序列的参数估计和噪声抑制看作是一种最小化过程,并利用了最速梯度下降方法解决。数值模拟实验表明新方法要优于现有的方法,是估计混沌系统系数和噪声抑制的一种有效的方法。  相似文献   

2.
该文探讨了利用相空间重构和支持向量机进行衰落信道非线性预测算法。该算法基于多径衰落信道具有混沌行为,利用坐标延迟理论,重建衰落信道系数的相空间,再根据混沌吸引子的稳定性和分形性,在相空间中通过递归最小二乘支持向量机(RLS-SVM)进行预测。该算法对原始数据可以进行更平滑的处理,在噪声环境下预测的时间范围更长。对时间跨度为63.829ms的衰落系数进行了预测,仿真结果表明,在信噪比为15dB时,预测结果优于AR算法。  相似文献   

3.
This article presents a genetic-algorithm-based prediction model for forecasting traffic demands of next-generation wireless networks that are expected to be chaotic in nature. The model approximates the best-fit mathematical equation that generates a given time series using a genetic algorithm. It estimates future traffic in wireless networks using the most recent traffic data points collected from the actual network. Such estimations will be beneficial for network operators helping to manage and optimise the limited radio resources efficiently and eventually to facilitate cognitive radio applications. The new model is compared with conventional regressions analysis and exponential smoothing models, and it has been found that the genetic algorithm model successfully recovers the underlying mathematical expression describing chaotic time series in less than 200 generations and the predictions achieved are by far better than those of regression and exponential smoothing models. The model also offers benefits for in cognitive communication systems with their intrinsic learning capabilities and distributed access decisions.  相似文献   

4.
利用遗传优化算法的混沌时间序列建模   总被引:4,自引:2,他引:2  
提出一种利用遗传算法对混沌数据序列建模的全局建模方法,可获得接近原始混沌系统的映射。该方法利用遗传算法同时进行函数拟和与参数优化。实验结果表明该方法有较好的建模效果,对用于短波通信的有关电离层参数预测显示了满意的结果。  相似文献   

5.
A multivariable predictor algorithm is presented which can produce multistep prediction of a stochastic time series. The algorithm is used to predict product quality in an iron-ore sintering process. The application uses a modified low-pass filtering technique involving less time lag than conventional filters.  相似文献   

6.
基于混沌时间序列建模的频谱状态持续时长预测   总被引:1,自引:0,他引:1  
为提高频谱利用率,该文利用非线性动力学理论对频谱状态持续时长序列进行建模并预测。以实际采集的频谱数据作为研究对象,采用指向导数法对该时长序列进行非一致延长时间相空间重构,利用基于尺度的Lyapunov指数判定其混沌特性。以基于Davidon-Fletcher-Powell方法的二阶Volterra预测模型 (DFPSOVF)为基础,提出一种基于限域拟牛顿方法的Volterra自适应滤波器系数调整模型,并将该模型应用于具有混沌特性的短时频谱状态持续时长预测,通过自适应剔除对预测贡献小的滤波器系数,降低预测模型的复杂度。实验结果表明该算法在保证预测精度的同时降低运算复杂度。  相似文献   

7.
一种新的混沌扩频序列产生方法   总被引:2,自引:0,他引:2  
万继宏 《电讯技术》2000,40(4):47-52
本文提出了一种新的混沌扩频序列产生方法。该方法基于神经网络的强大学习能力和副近非线性函数能力,应用具有全局最优的BP改进算法通过训练学习建立起具有混沌性态的优化神经网络模型,利用网络权值调整的灵活性来产生混沌扩频序列。计算机仿真结果表明,该模型产生的混沌扩频序列调整更容易,比基于单一混沌映射能产生更多符合扩频通信要求的扩频序列。  相似文献   

8.
混沌背景中微弱信号检测的回声状态网络方法   总被引:1,自引:0,他引:1       下载免费PDF全文
郑红利  行鸿彦  徐伟 《信号处理》2015,31(3):336-345
对复杂非线性系统的相空间重构理论进行了研究分析,提出了混沌背景中微弱信号检测的回声状态网络方法。针对回声状态网络模型参数选取困难这一问题,采用遗传算法对其模型参数进行优化。将回声状态网络模型参数作为遗传算法的个体,混沌时间序列预测均方根误差的倒数作为适应度函数,通过选择、交叉、变异等操作获得适合数据特点的最优模型参数。根据回声状态网络强大的学习和非线性处理能力,利用得到的回声状态网络模型最优参数建立混沌背景噪声的单步预测模型,将淹没在混沌背景噪声中的微弱瞬态信号和周期信号从预测误差中检测出来。以Lorenz系统和实测的海杂波数据作为混沌背景噪声进行仿真实验,仿真结果表明,本文所提方法在预测精度和训练速度方面均优于支持向量机和神经网络模型,能够有效地检测出混沌背景噪声中的微弱目标信号,且具有较小的预测误差。   相似文献   

9.
Accurate fault prediction can obviously reduce cost and decrease the probability of accidents so as to improve the performance of the system testing and maintenance. Traditional fault prediction methods are always offline that are not suitable for online and real-time processing. For the complicated nonlinear and non-stationary time series, it is hard to achieve exact predicting result with single models such as support vector regression (SVR), artifieial neural network (ANN), and autoregressive moving average (ARMA). Combined with the accurate online support vector regression (AOSVR) algorithm and ARMA model, a new online approach is presented to forecast fault with time series prediction. The fault trend feature can be extracted by the AOSVR with global kernel for general fault modes. Moreover, its prediction residual that represents the local high-frequency components is synchronously revised and compensated by the sliding time window ARMA model. Fault prediction with combined AOSVR and ARMA can be realized better than with the single one. Experiments on Tennessee Eastman process fault data show the new method is practical and effective.  相似文献   

10.

该文以通信系统中常用的典型微波部件——同轴连接器为研究对象,基于混沌理论对获得的同轴连接器的无源互调(PIM)功率时间序列进行分析,验证了使用混沌理论预测无源互调的有效性。首先通过实验系统获得同轴连接器的3阶无源互调功率时间序列,并对得到的实验数据进行相空间重构,确定该时间序列的最佳嵌入维数m和延迟时间τ。然后,结合最佳嵌入维数和延迟时间,分别构建相图和使用小数据量法计算该时间序列的最大Lyapunov指数,从而从定性和定量角度验证了该无源互调功率时间序列具有混沌特性。在此基础上,基于获得的最大Lyapunov指数对该无源互调功率时间序列进行混沌预测,在最大可预测尺度范围内,理论预测值与实验值最大误差为2.61%,表明采用混沌方法预测无源互调功率效果较好。该文提出的使用混沌理论预测通信系统中微波部件无源互调功率的方法,为开展无源互调抑制技术研究,提高通信系统的性能提供了新思路。

  相似文献   

11.
A new efficient method that compensates for unreliable nodes in network reliability computations is presented. This method can be embedded in the modified Dotson algorithm or any algorithm that generates a symbolic reliability expression for networks with perfect nodes. Its cost increases linearly with the number of links, and the effect of unreliable nodes can be directly computed. This method supplants the Aggarwal method and other methods of compensating for unreliable nodes in the calculation of node-pair reliability. When combined with the modified Dotson algorithm, this method provides accurate reliability estimates for networks so large that the Theologou-Carlier algorithm cannot complete its computations in a reasonable amount of time. For such networks, the new method can be embedded in the modified Dotson algorithm to estimate both the node-pair reliability and the error in this estimate even if the algorithm is terminated before completion  相似文献   

12.
Chaos control on universal learning networks   总被引:2,自引:0,他引:2  
A new chaos control method is proposed which is useful for taking advantage of chaos and avoiding it. The proposed method is based on the following facts: (1) chaotic phenomena can be generated and eliminated by controlling the maximum Lyapunov exponent of the systems, and (2) the maximum Lyapunov exponent can be formulated and calculated by using higher-order derivatives of universal learning networks (ULNs). ULNs consist of a number of interconnected nodes which may have any continuously differentiable nonlinear functions in them and where each pair of nodes can be connected by multiple branches with arbitrary time delays. A generalized learning algorithm has been derived for the ULNs in which both first-order derivatives (gradients) and higher-order derivatives are incorporated. In simulations, parameters of ULNs with bounded node outputs were adjusted for the maximum Lyapunov exponent to approach the target value, and it has been shown that a fully-connected ULN with three sigmoidal function nodes is able to generate and eliminate chaotic behaviors by adjusting these parameters  相似文献   

13.
基于神经网络的联合混沌时间序列的预测研究   总被引:3,自引:3,他引:0  
提出了利用前馈神经网络预测联合混沌序列,通过引用著名的Henon和Lozi混沌系统作为仿真实验产生联合混沌信号序列。预测结果证明,用改进的BP算法训练的NN可以完全预测联合混沌信号序列。  相似文献   

14.
5G网络实时应用场景对网络切片的建立提出了严格的要求,需要使用预测算法提前隔离资源,降低网络切片的建立时间。提出了基于预测的 5G 网络切片算法,以四阶矩为代价函数,在算法复杂度不高的前提下提供必要的预测精度,根据预测结果在5G网络中提前隔离虚拟节点资源和虚拟链路资源,当网络切片请求到达时,直接拉起容器,完成网络切片的动态创建。仿真结果表明,所提算法的预测精度能够达到 90%,在复用原始网络切片资源的条件下,新请求网络切片的创建时间减少50%。  相似文献   

15.
基于混沌理论的跳频频率多步自适应预测   总被引:2,自引:0,他引:2  
根据跳频频率序列的混沌特性,利用混沌时间序列的多步自适应预测算法来实现对跳频频率的多步预测,以提高预测的实时性。仿真实验说明这种多步预测方法是可行的,在一定的预测精度下可同时实现对未来多个频点的有效预测,时跳频通信预测干扰具有更好的工程应用价值。  相似文献   

16.
混沌时间序列预测的改进型加权一阶局域法   总被引:1,自引:0,他引:1  
钱锋  王可人  冯辉  金虎 《电讯技术》2011,51(5):33-36
提出了一种用于混沌时间序列预测的改进型加权一阶局域法.用衰减系数对分维指数加权一阶局域法的向量距离公式进行修正,调节邻近点与中心点的相关性,也调节了同一邻近点的各个分量和中心点的最后一个分量的关联程度.利用该方法对Logistic混沌时间序列进行预测的结果表明,衰减系数取最佳值时,相对于现有算法,该方法可以更精确地预测...  相似文献   

17.
基于混沌理论与改进回声状态网络的网络流量多步预测   总被引:2,自引:0,他引:2  
网络流量预测是网络管理及网络拥塞控制的重要问题,针对该问题提出一种基于混沌理论与改进回声状态网络的网络流量预测方法。首先利用0-1混沌测试法与最大Lyapunov指数法对不同时间尺度下的网络流量样本数据进行分析,确定网络流量在不同时间尺度下都具有混沌特性。将相空间重构技术引入网络流量预测,通过C-C方法确定延迟时间,G-P算法确定嵌入维数。对网络流量时间序列进行相空间重构之后,利用一种改进的回声状态网络进行网络流量的多步预测。提出一种改进的和声搜索优化算法对回声状态网络的相关参数进行优化以提高预测精度。利用网络流量的公共数据集以及实际数据进行了仿真,结果表明,提出的预测方法具有更高的预测精度以及更小的预测误差。  相似文献   

18.
锂离子电池应用时表现出的时变、动态、非线性等特征,以及容量再生现象,导致传统模型对锂离子电池剩余使用寿命(RUL)预测的准确性低,该文将变分模态分解(VMD)和高斯过程回归(GPR)以及动态自适应免疫粒子群(DAIPSO)结合,建立RUL预测模型。首先利用等压降放电时间分析法,提取健康因子,利用VMD对其进行分解处理,挖掘数据内在信息,降低数据复杂度,并针对不同分量,利用不同协方差函数建立GPR预测模型,有效捕获了数据的长期下降趋势和短期再生波动。利用DAIPSO算法优化GPR模型,实现核函数超参数的优化,建立了更准确的退化关系模型,最终实现剩余使用寿命的准确预测,以及不确定性表征。最后利用NASA电池数据进行验证,离线预测结果表明所提方法具有较高预测精度和泛化适应能力。  相似文献   

19.
为了提高非线性卫星钟差预测的精度,降低单一钟差预测模型对钟差预测的风险,提出了一种组合模型的卫星钟差预测算法.该算法首先采用db1小波对卫星钟差序列进行3层多分辨率分解和单支重构,得到一个趋势分量和三个细节分量,然后运用灰色预测模型对重构后的趋势分量和混沌一阶加权局域预测法对重构后的细节分量分别进行预测,最后将各分量预测结果相加后得到总的钟差预测值.以GPS卫星钟差数据做算例分析,在6小时的钟差预测中,算法绝对误差最大值比单一的灰色预测模型误差小1.3ns以上.将该组合预测模型用于非线性卫星钟差预测中,可以提高钟差预测的精度和可靠性.  相似文献   

20.
利用混沌时间序列短期可以预测的特点,构建煤矿瓦斯浓度预测模型,重构煤矿瓦斯浓度相空间,采用改进的C-C算法确定相空间时延t和相空间嵌入维数m。然后在重构相空间中,运用加权一阶局域法构建煤矿瓦斯浓度的预测模型,进行煤矿瓦斯浓度预测。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号