首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 68 毫秒
1.
一种新的变步长LMS自应用滤波算法   总被引:42,自引:0,他引:42  
传统LMS算法的优点是计算简单、易于实现,缺点是收敛速度慢,如果为加快收敛速度而增大步长因子μ,则会导致大的稳态误差,甚至引起算法发散。固定步长因子无法解决收敛和稳态误差之间的矛盾。本文通过建立步长因子μ与误差信号之间的非线性函数关系,得出一种新的变步长自适应滤波算法(SVSLMS)。理论分析和计算机仿真结果表明该算法的性能优于传统的LMS算法和NLMS算法。即在计算量增加不多的前提下,能同时获得  相似文献   

2.
一种新的变步长LMS自适应滤波算法仿真研究   总被引:1,自引:0,他引:1  
本文在介绍并分析了LMS算法及其改进算法的基础上,提出了一种新的变步长方法.通过MATLAB仿真对比实验,验证了该算法同固定步长LMS、变步长LMS算法相比,在均方误差和收敛速度方面都有很大的提高.该算法为自适应滤波的稳定和快速收敛提供了一个较好的解决方案.  相似文献   

3.
一种改进的变步长LMS自适应滤波算法及性能分析   总被引:3,自引:0,他引:3  
针对现有LMS(Least Mean Square)算法不能同时提高收敛速度及降低稳态误差的矛盾,提出一种改进的变步长LMS算法,建立了步长参数μ(n)与误差信号e(n)之间的一种新的非线性函数关系: 与现有的算法相比,同时引入记忆因子λ和控制函数取值的参数β(n),使当前步长与上一次迭代所得步长及前M个误差的平方相关。理论分析和计算机仿真结果表明,与现有几种常见的LMS算法相比,改进的算法收敛速度和稳态误差的性能指标得到提高。  相似文献   

4.
基于模糊推理的变步长LMS自适应滤波算法   总被引:5,自引:0,他引:5  
李明  杨成梧 《控制工程》2006,13(3):237-239
LMS算法是一种基于最速下降法的最小均方误差自适应滤波算法.为了提高LMS算法的收敛速度,依据模糊控制原理,推导出一种结构简单的步长与误差的非线性函数关系,进而得出一种新的变步长LMS自适应滤波算法(FVSLMS),该算法结构简单,易于实现.在理论上,根据万能逼近定理,用FVSLMS算法可以以任意精度逼近步长与误差的非线性函数关系,因此它可以作为以误差调节步长的变步长LMS算法的一类统一形式.最后,通过计算机仿真说明了FVSLMS算法具有较好的收敛性能.  相似文献   

5.
对变步长的(LMS)自适应算法进行了讨论,本文提出了一种新的变步长LMS自适应滤波算法,并用计算机进行了仿真,结果表明该算法在误差接近于零时步长具有缓慢的变化的特性,并且在低信噪比的环境下有更好的抗噪性能,滤波效果更好。  相似文献   

6.
田斌鹏  张翠芳  闫磊 《计算机仿真》2007,24(6):89-91,238
针对LMS算法收敛性能差的缺点,提出一种改进LMS算法即NLMSISA.首先从理论上分析并介绍了LMS算法及其改进算法,并将改进算法-变符号函数法(ISA)和归一化变步长(NLMS)算法有机结合,提出了该NLMSISA算法,理论上该改进算法具有物理实现难度低、收敛速度快、且能收敛到更小且稳定的均方误差(MSE)的特点.在MATLAB下,通过采用LMS、LMSISA和NLMSISA三种算法对FIR和IIR两种结构的系统分别进行了辨识仿真研究,结合三种算法的均方误差收敛曲线分析,验证了提出的改进LMS算法在敛速度、稳态误差上都明显优于现有几种算法.该算法对于实际工程应用的自适应滤波问题提供了一个较好的算法.  相似文献   

7.
为了提高LMS自适应滤波算法的性能,在对传统LMS算法及其改进算法研究的基础上,提出了一种改进的变步长算法.在改进算法中,步长因子与误差信号自相关函数之间建立了一种改进的非线性函数关系.将改进算法应用到系统辨识中,通过计算机仿真结果看出,自适应滤波性能在收敛速度和稳态失调误差等方面得到改善.  相似文献   

8.
许广廷  易波  马守科 《微处理机》2007,28(3):53-55,58
现有的变步长LMS算法中,大都采用建立步长因子与误差信号的函数关系的方法,以提高算法的收敛速度和跟踪性能,但由于未考虑输入信号对算法性能的影响,使得当输入信号发生变化后,稳态误差明显增大。为此,在现有算法的基础上,引入了输入信号因子,提出了一种改进算法。该算法可根据瞬时误差和输入信号来调整步长因子,使算法不仅能保持较高的收敛速度和跟踪性能,还可在输入信号变化的情况下,保证较小的稳态误差。理论分析及仿真实验表明新算法的性能优于现有算法。  相似文献   

9.
10.
基于非约束政适应滤波器的结构,本文提出一种变步长自适应算法,即采用最小二乘法选取最优变步长收敛因子,计算机信民真结构表明,该算法比非约束LMS算法具有更快的收敛速度和更好的收敛精度。  相似文献   

11.
基于箕舌线的变步长LMS自适应算法   总被引:24,自引:0,他引:24  
通过建立步长因子μ与误差信号e之间的非线性关系,提出一种新的基于箕舌线的变步长LMS算法,并将其应用于通信降噪。该算法除了具有传统固定步长LMS算法计算量小、稳定性较好、简单、易于实时处理等优点外,计算机仿真结果表明,其收敛速度、稳定性以及跟踪速度优于SVSLMS算法和NLMS算法,且不需进行指数运算,计算复杂度低于SVSLMS算法,用于通信降噪取得了较好的效果。  相似文献   

12.
标准LMS算法由于采用了固定的步长因子,致使其算法稳态误差大、实时性差,不适用于非平稳随机过程.提出了一种改进的CLMS变步长自适应滤波算法,该算法采用输入-误差信号的互相关函数控制步长更新,在算法收敛初期步长取较大值,使其有较快的实时跟踪能力,在算法收敛末期步长取较小值,以使其拥有较小的稳态误差.仿真结果表明,相比已有变步长算法,CLMS算法有更好的应用性能.  相似文献   

13.
一种改进变步长LMS算法的性能研究   总被引:1,自引:0,他引:1  
在对传统LMS算法、变步长LMS算法及其改进算法分析的基础上,提出了一种改进的变步长LMS算法。新算法通过建立步长因子与误差信号之间的非线性函数关系,使其初始阶段和时变阶段步长自适应增大和稳态阶段步长很小,理论分析及计算机的仿真结果表明,该算法可保证较快的收敛速度和较小的失调,能更好地解决收敛速度和稳态误差的内在矛盾,可更好地应用于自适应系统中。  相似文献   

14.
一种新的变步长LMS算法分析   总被引:9,自引:1,他引:8  
最小均方(LMS)自适应滤波算法易于实现,在很多领域得到了广泛地应用.但是存在加快算法收敛和减小稳态误差之间的矛盾,而固定步长LMS算法无法解决矛盾.用反正切函数alan建立了步长因子与误差之间一种新的非线性函数关系.给出了一种新的变步长LMS算法.反正切函数较Sigmoid函数简单且易于控制,并且可以使步长在误差接近为零时变化缓慢.从而可以使算法具有更小的稳态误差.还分析了参数、对算法性能的影响.计算机仿真结果与理论分析一致,算法的性能优于固定步长LMS算法和SVSLMS算法.  相似文献   

15.
基于指数函数的归一化变步长LMS算法   总被引:1,自引:0,他引:1       下载免费PDF全文
杨逸  曹祥玉  杨群 《计算机工程》2012,38(10):134-136
在研究归一化最小均方误差(NLMS)算法的基础上,提出一种基于指数函数的变步长LMS算法。通过建立误差 和步长 的函数关系,实时调整步长,并对输入信号完成时域信号解相关,解决稳态失调系数与收敛速度的矛盾。仿真实验结果证明,该算法与传统LMS算法、SVS_LMS算法、NLMS算法以及双曲正切变步长LMS算法相比,具有更高的收敛速度和较小的稳态失调系数。  相似文献   

16.
一种改进变步长因子LMS算法的研究   总被引:1,自引:0,他引:1  
传统的LMS算法,由于其步长因子μ是事先指定的固定值,因而在迭代过程中不能随着估计误差e(n)来进行相应的调整,所以其收敛性完全由初始条件和步长决定。为了改变这种状况,文章提出了一种步长因子μ(n)随时间变化的LMS算法,其收敛速度快于LMS和NLMS,具有较小的失调,将本算法应用于自适应预测系统,Matlab仿真实验结果与理论分析一致。  相似文献   

17.
交流阻抗法在钢筋腐蚀测量中应用比较广泛,为了改善交流阻抗法在测量时由于测量阻抗较大而存在响应信号微弱、信噪比较低、误差较大等问题,提出了一种改进变步长LMS自适应滤波算法。针对传统算法收敛速度慢和稳态误差较大的缺点,改进了步长因子和误差之间的函数关系,使步长因子对时变系统有了一定的跟踪能力。在改进算法的基础上,在不同频率的信号环境中进行仿真和实验,结果表明将改进的算法应用于钢筋腐蚀测量,有效地提高了响应信号的信噪比,同时减小了稳态误差,测量精度可以精确到10 mV左右,为钢筋腐蚀测量提供了一种新的思路和方法。  相似文献   

18.
LMS算法是智能天线自适应波束形成算法中的经典算法,由于其步长固定,造成收敛速度和稳态失调之间的矛盾。为了解决这一问题,提出一种新的变步长LMS算法,并在算法中引入误差信号的自相关估计,大大降低了噪声的干扰,对算法进行仿真,得到了最优的参数设置。利用蒙特卡罗方法对算法进行了性能评估,与传统的LMS算法、NLMS算法相比,新的变步长LMS算法具有更快的收敛速度和较小的稳态误差及优良的抗噪性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号