首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 31 毫秒
1.
徐玲 《控制与决策》2017,32(6):1091-1096
一些工业过程可以近似用一个传递函数描述,结合统计辨识方法和非线性优化策略提出传递函数参数辨识方法.该方法采用动态数据方案,使用系统观测数据获得系统更多的模态信息.基于动态观测数据,提出传递函数随机梯度参数辨识方法.为进一步提高辨识精度,利用动态窗数据将随机梯度参数辨识方法中的标量新息扩展为新息向量,提出传递函数多新息随机梯度参数估计方法.最后通过仿真例子对所提出的方法进行了性能分析和模型验证.  相似文献   

2.
永磁同步电机(Permanent Magnet Synchronous Motor,PMSM)具有响应快、高精度、高转矩比等诸多优点。在永磁同步电机系统数学模型基础上,构建系统回归模型,推导得永磁同步电机多新息随机梯度参数辨识算法(MISG),仿真和实时实验结果表明由于MISG算法重复利用可测输入输出信息,较单新息随机梯度算法(SG)有着更好的参数估计收敛性,并且随着新息长度p的增加及遗忘因子引入,MISG算法辨识效果与最小二乘(RLS)算法接近。  相似文献   

3.
非均匀采样系统多新息随机梯度辨识性能分析   总被引:1,自引:0,他引:1  
丁洁  谢莉  丁锋 《控制与决策》2011,26(9):1338-1342
针对一类非均匀采样系统,提出了其输入输出表达的多新息随机梯度辨识方法.该方法将随机梯度算法中的新息项扩展为向量,有效利用了历史新息所包含的信息,从而提高辨识精度和算法的收敛速度,同时又保留了随机梯度算法计算量小的优点.仿真例子通过改变新息长度,验证了所提出辨识算法性能的优越性.  相似文献   

4.
多新息随机梯度辨识方法   总被引:18,自引:0,他引:18  
多新息随机梯度辨识方法是系统辨识和参数估计的一种基本方法.该方法由于采用了间断迭代,因此可以克服坏数据对参数估计的影响,且具有较强的鲁棒性,又可以跟踪时变参数.作者从理论上给出了多新息随机梯度辨识方法的推导过程,同时列出多新息随机梯度辨识方法的各种变形.数字仿真实验表明多新息随机梯度辨识方法具有良好的性能.  相似文献   

5.
鹿振宇  黄攀峰 《控制与决策》2015,30(8):1527-1530

针对一类耦合参数多变量系统, 提出一种耦合多新息随机梯度方法. 通过该方法进行参数辨识并对该方法进行性能分析. 该方法的基本思路在于利用历史新息中包含的信息, 将耦合随机梯度算法中的新息项扩展为多新息向量, 从而提升耦合随机梯度算法中单个子系统的辨识效果. 仿真结果表明, 通过增加新息长度可以提升辨识结果的收敛速度和精度.

  相似文献   

6.
针对多变量输出误差系统的模型辨识问题,借助辅助模型思想推导出其随机梯度辨识算法;由于该算法的收敛速度慢,为了提高收敛速度,将算法中的新息向量扩展成新息矩阵,得到基于辅助模型的多新息随机梯度辨识算法;辅助模型多新息算法使用新息矩阵对参数进行校正估计,该新息矩阵不仅包含了当前时刻的新息向量,还包含过去多个时刻的新息向量,因而,与辅助模型随机梯度算法和增广随机梯度算法相比,该算法具有更快的收敛速度;一个二输入二输出的仿真例子证明了所提出的算法的确具有更快的收敛速度.  相似文献   

7.
基于辅助模型的多新息广义增广随机梯度算法   总被引:6,自引:1,他引:6  
将辅助模型辨识思想与多新息辨识理论相结合,利用系统可测信忠建立一个辅助模型.分别用辅助模型输出和噪声估计值代替辨识模型信忠向量中未知真实输出变量和不可测噪声项,并引入新忠长度扩展标量新息为新息向量,提出了Box-lenkins模型的辅助模型多新忠广义增广随机梯度辨识方法.所提出方法重复使用系统数据,能够改善参数估计精度,加快算法的收敛速度.  相似文献   

8.
传递函数阵递阶随机梯度辨识方法的收敛性分析   总被引:3,自引:0,他引:3  
阐述了递阶辨识原理,提出了传递函数阵模型参数的递阶随机梯度(HSG)辨识方法,在递阶辨识中,系统参数被分解为参数向量和参数矩阵,前者是由系统的特征多项式的系数构成的,后者是由传递函数矩阵分子多项式的系数构成的,借助于鞅超收敛定理的收敛性分析表明,HSG算法的参数估计误差一致有界;当持续激励条件成立时,参数估计误差一致收敛于零,递阶辨识方法具有计算量小和容易实现等特点。  相似文献   

9.
孙焕琪  熊伟丽  丁锋 《控制与决策》2024,39(8):2719-2727
基于带惩罚项准则函数,研究受控自回归系统的辨识问题.首先,通过负梯度搜索,极小化带惩罚项的准则函数,得到计算参数估计的递推关系,并利用一维线搜索确定最佳步长,推导带惩罚项投影梯度辨识算法和带惩罚项随机梯度辨识算法;然后,为了提高带惩罚项随机梯度算法的收敛速度,使用多新息辨识理论,推导带惩罚项多新息随机梯度辨识算法;最后,通过仿真实例验证所提出算法的有效性.  相似文献   

10.
时变系统辨识的多新息方法   总被引:28,自引:3,他引:25  
推广了估计时不变参数的单新息修正技术,提出了多新息辨识方法.该方法可以抑制坏数据对参数估计的影响,具有较强的鲁棒性.分析表明多新息方法可以跟踪时变参数,计算量也较遗忘因子最小二乘法和卡尔曼(Kalman)滤波算法要小.仿真结果说明多新息算法估计系统参数是有效的.  相似文献   

11.
Hammerstein模型具有结构简单、能很好地反映典型非线性特性等优点, 一直是控制领域的重要研究内容之一. 本文主要研究输出误差自回归Hammerstein系统的辨识问题, 系统的输入非线性部分采用分段线性函数拟合,并引入切换函数和位置函数将其表示为线性参数表达式. 为克服有色噪声的干扰, 本文通过关键项分离和数据滤波技术, 建立系统的滤波辨识模型. 在此基础上, 文中提出了基于滤波的遗忘梯度算法, 基于滤波的递推广义最小二乘算法和基于滤波的多新息遗忘梯度算法估计未知参数. 本文通过仿真实例验证了所提算法的有效性, 证明了多新息理论的应用可以有效地提高递推算法的辨识性能.  相似文献   

12.
13.

针对一类非均匀数据采样Hammerstein-Wiener 系统, 提出一种递阶多新息随机梯度算法. 首先基于提升技术, 推导出系统的状态空间模型, 并考虑因果约束关系, 将该模型分解成两个子系统, 利用多新息遗忘随机梯度算法辨识出此模型的参数; 然后, 引入可变遗忘因子, 提出一种修正函数并在线确定其大小, 提高了算法的收敛速度及抗干扰能力. 仿真实例验证了所提出算法的有效性和优越性.

  相似文献   

14.
提出了随机状态空间系统参数的梯度优化辨识方法。通过极小化输出预报误差而获得系统的参数估计。提出了动态选择雅可比矩阵奇异值比率确定参数搜索方向的方法,用以解决因雅可比矩阵的线性相关性引起的算法失效问题。给出了融合参数局部逼近性能信息的辨识算法,并得到了算法收敛速度的解析表达式。数值仿真实验的结果说明了所提出方法的有效性。  相似文献   

15.
Performance analysis of multi-innovation gradient type identification methods   总被引:10,自引:0,他引:10  
It is well-known that the stochastic gradient (SG) identification algorithm has poor convergence rate. In order to improve the convergence rate, we extend the SG algorithm from the viewpoint of innovation modification and present multi-innovation gradient type identification algorithms, including a multi-innovation stochastic gradient (MISG) algorithm and a multi-innovation forgetting gradient (MIFG) algorithm. Because the multi-innovation gradient type algorithms use not only the current data but also the past data at each iteration, parameter estimation accuracy can be improved. Finally, the performance analysis and simulation results show that the proposed MISG and MIFG algorithms have faster convergence rates and better tracking performance than their corresponding SG algorithms.  相似文献   

16.
Traditionally, stochastic approximation (SA) schemes have been popular choices for solving stochastic optimization problems. However, the performance of standard SA implementations can vary significantly based on the choice of the steplength sequence, and in general, little guidance is provided about good choices. Motivated by this gap, we present two adaptive steplength schemes for strongly convex differentiable stochastic optimization problems, equipped with convergence theory, that aim to overcome some of the reliance on user-specific parameters. The first scheme, referred to as a recursive steplength stochastic approximation (RSA) scheme, optimizes the error bounds to derive a rule that expresses the steplength at a given iteration as a simple function of the steplength at the previous iteration and certain problem parameters. The second scheme, termed as a cascading steplength stochastic approximation (CSA) scheme, maintains the steplength sequence as a piecewise-constant decreasing function with the reduction in the steplength occurring when a suitable error threshold is met. Then, we allow for nondifferentiable objectives but with bounded subgradients over a certain domain. In such a regime, we propose a local smoothing technique, based on random local perturbations of the objective function, that leads to a differentiable approximation of the function. Assuming a uniform distribution on the local randomness, we establish a Lipschitzian property for the gradient of the approximation and prove that the obtained Lipschitz bound grows at a modest rate with problem size. This facilitates the development of an adaptive steplength stochastic approximation framework, which now requires sampling in the product space of the original measure and the artificially introduced distribution.  相似文献   

17.
An extended stochastic gradient algorithm is developed to estimate the parameters of Hammerstein–Wiener ARMAX models. The basic idea is to replace the unmeasurable noise terms in the information vector of the pseudo-linear regression identification model with the corresponding noise estimates which are computed by the obtained parameter estimates. The obtained parameter estimates of the identification model include the product terms of the parameters of the original systems. Two methods of separating the parameter estimates of the original parameters from the product terms are discussed: the average method and the singular value decomposition method. To improve the identification accuracy, an extended stochastic gradient algorithm with a forgetting factor is presented. The simulation results indicate that the parameter estimation errors become small by introducing the forgetting factor.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号