首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 171 毫秒
1.
基于子带分解的DFRFT自适应滤波语音增强算法   总被引:1,自引:0,他引:1  
提出一种改进的语音增强方法,利用子带分解对带噪语音信号进行处理,再在离散分数傅里叶变换(DFRFT)域采用最小均方(LMs)自适应算法进行滤波,对滤波后的子带信号进行DFRFT逆变换,最后利用综合滤波器组合成增强后的语音信号。仿真结果表明,本算法明显提高了收敛速度,减少了计算时间。在主客观评价中均具有较好的语音增强效果。  相似文献   

2.
结合多采样率系统理论中的子带分解技术与贝叶斯估计理论中的无迹粒子滤波技术,提出了一种基于子带无迹粒子滤波的语音增强方法。该方法首先将语音信号分解成子带信号,建立各子带信号的低阶时变自回归模型;然后利用无迹粒子滤波估计模型参数,对子带信号进行滤波处理;最后根据滤波后的子带信号重构语音信号,实现语音增强。仿真结果表明,该方法能明显改善语音信号的信噪比和质量,且易于实现。  相似文献   

3.
双麦克风噪声抵消应用中,由于交叉串的存在,传统自适应算法降噪性能受到很大的影响。为了提高双麦克风算法降噪性能,使用两级自适应滤波系统消除交叉串扰问题。为提高自适应滤波器收敛性能,采用主从结构LMS算法自适应调节步长因子。同时为了适合窄带处理算法,将输入信号进行子带分析预处理,对每个子带独立进行抗交叉串绕自适应处理,将各子带增强信号合并得到增强语音信号。实验结果表明,该方消噪量大,语音损伤小,语音增强效果显著。  相似文献   

4.
为了提高语音信号的信噪比,提出一种经验模态分解与自适应滤波相结合的语音增强法。对带噪语音进行经验模态分解,得到有限个固有模态函数,把所有的固有模态函数按顺序分成三组,将每一组所包含的固有模态函数叠加,得到三个子信号;对三个子信号进行自适应滤波,消除噪声;将降噪后的子信号重构得到增强后的语音。仿真实验表明,所提方法的语音增强效果优于自适应滤波。  相似文献   

5.
提出了一种基于二次离散小波变换(DWT)的语音增强算法。该算法首先对带噪语音信号进行离散小波变换,提取离散细节信号,并对其进行第二次离散小波变换。再按照不同的规则选取阈值,对信号进行去噪处理。最后再对出来后的语音信号进行合并。对比实验结果表明,该方法具有良好的消除噪声的效果,提高了语音的清晰度和可懂度。  相似文献   

6.
针对麦克风阵列后滤波语音增强算法的不足, 结合人耳的听觉掩蔽效应, 提出了改进的后滤波语音增强算法. 提出了最大化目标语音存在概率来确定信号子空间维度的方法, 在噪声子空间上, 利用条件概率估计出噪声功率谱. 基于人耳的听觉掩蔽效应, 提出了后滤波器的一种合理的设计方法. 实验证明, 所提的噪声估计方法比传统方法更加准确, 所提的后滤波算法比传统的后滤波算法更好, 在多项语音评价指标上, 都取得了更好的实验效果.  相似文献   

7.
为了抑制语音信号中的环境噪声,提出了一种基于子带谱减法进行噪声抑制的语音增强方法。首先通过滤波器组将时域信号分成若干个频(子)带,然后在每个子带中,独立使用改进的谱减法技术进行语音增强。由于实际环境中的背景噪声绝大多数都不是随频率均匀分布的,因此这种在不同频带内进行噪声估计和频谱相减的方法更具有针对性,且更加准确。在实际语音处理实验中证明,所提方法在达到噪声抑制效果的同时较好地保留了语音的结构,使增强后的语音具有更高的听觉舒适度和可理解度。  相似文献   

8.
为了克服低信噪比输入下,语音增强造成清音弱分量损失,导致信号重构失真的问题,提出了一种新的语音增强方法。该方法采用小波包拟合语音感知模型的临界带,按子带能量对语音清浊音分离,然后对清音和浊音信号分别作8层和4层小波包分解,在阈值计算上采用Bark子带小波包自适应节点阈值算法,在Bark子带实时跟踪噪声水平,有效保护清音中高频弱分量,减少失真。通过与传统语音增强方法的仿真对比实验,证实该方法在低信噪比输入时,具有明显优势,输出信噪比高,语音失真度低。将该方法与谱减法相结合,进行语音二次增强,能进一步提高增强语音质量。  相似文献   

9.
针对宽带噪声背景下的语音增强问题,将短时语音视为非平稳或宽平稳信号,基于谱减法和自适应滤波的最小均方(LMS)算法,提出了一种FIR型自适应滤波算法(SSLMS):用减谱法由短时噪声观测语音估计期望信号,作为滤波器输出信号的参考信号;用滤波器的输出与参考信号的差值为误差信号,用LMS算法求得滤波器权系数修正量,并修正滤波器。权系数最速下降调整中,采用了归一化LMS、符号LMS、块LMS技术,以简化保证权系数收敛的步长选择、减少权系数修正的运算量,从而提高自适应速度。对不同的语音在各种信噪比下仿真实验,并与改进的谱减法比较,结果表明,该法增强效果优于谱减法;在信噪比为3 dB时该法的增强效果仍然令人满意。  相似文献   

10.
为有效解决现有语音信号压缩算法基本没有考虑人耳听觉特性,所划分出的子带与人耳听觉特性相去甚远,语音质量不高的问题,提出了一种基于不完全小波包分解的语音数据压缩算法.该算法充分考虑语音信号的特点以及人耳听觉特性,利用小波包合理分割子带,在每个子带内进行编码,并采用优化目标函数,作为选择最优小波基的评价函数,使划分出的子带更符合人耳听觉特性.实例仿真计算表明,该方法能取得较高的压缩率,压缩后恢复的语音信号具有良好的清晰度和自然度.  相似文献   

11.
This paper proposes an improved voice activity detection (VAD) algorithm using wavelet and support vector machine (SVM) for European Telecommunication Standards Institution (ETSI) adaptive multi-rate (AMR) narrow-band (NB) and wide-band (WB) speech codecs. First, based on the wavelet transform, the original IIR filter bank and pitch/tone detector are implemented, respectively, via the wavelet filter bank and the wavelet-based pitch/tone detection algorithm. The wavelet filter bank can divide input speech signal into several frequency bands so that the signal power level at each sub-band can be calculated. In addition, the background noise level can be estimated in each sub-band by using the wavelet de-noising method. The wavelet filter bank is also derived to detect correlated complex signals like music. Then the proposed algorithm can apply SVM to train an optimized non-linear VAD decision rule involving the sub-band power, noise level, pitch period, tone flag, and complex signals warning flag of input speech signals. By the use of the trained SVM, the proposed VAD algorithm can produce more accurate detection results. Various experimental results carried out from the Aurora speech database with different noise conditions show that the proposed algorithm gives considerable VAD performances superior to the AMR-NB VAD Options 1 and 2, and AMR-WB VAD.  相似文献   

12.
维纳滤波算法是改善噪声环境下听障患者语音理解度的常用算法之一。针对传统维纳滤波算法噪声谱估计偏差大的问题,提出一种基于改进的多通道维纳滤波算法的助听器语音降噪算法。算法首先结合人耳听觉特性和助听器响度补偿的特点,将语音信号进行Gammatone分解为多路子带信号。然后在每个子带内用基于先验信噪比估计的维纳滤波器进行语音增强处理。最后通过综合子带信号,得到增强的语音。此外,为了改善维纳滤波算法噪声谱估计的问题,提出一种基于包络估计的语音活动检测算法,并用于改善维纳滤波性能。实验结果表明,与传统维纳滤波法相比,该方法能更有效地抑制残留噪声,提高语音可懂度,具有较高的实用价值。  相似文献   

13.
张海云  杜利民 《微计算机应用》2007,28(12):1284-1287
实际的语音以及语音中掺杂的噪声一般都是非平稳的。本文详细分析了TVAR(时变自回归模型)语音系统模型,把利用TVAR模型增强语音分解成卡尔曼滤波和粒子滤波两步,以减小运算量。同时在粒子滤波中,为克服粒子退化效应,引入了粒子重采样技术提高粒子滤波精度。实验证明,这种增强语音方法无需对语音分帧处理,无需要求噪声是否平稳,能很好地跟踪语音信号的非平稳性,对系统初始值设置不敏感,增强后的语音信号信噪比得到明显改善。  相似文献   

14.
复杂环境中噪声干扰严重影响语音信号的质量,无法正确传达语义,因此语音增强处理十分必要。传统语音增强技术存在适应性差、输入信号高度相关时收敛速度慢等问题。综合变步长最小均方(VSSLMS)算法与解相关的优点,提出了一种改进的语音增强算法,优化自适应滤波算法中步长的大小和权矢量的更新方向,提高语音降噪收敛速度。同时算法引入了连续块处理理论归一化权矢量,以提高其在嵌入式系统实现上的稳定性。仿真测试表明该算法收敛速度快、跟踪性能强,能有效去除强噪语音信号中的噪声,提高语音的清晰度与可懂度。  相似文献   

15.
This paper presents a new approach to speech enhancement based on modified least mean square-multi notch adaptive digital filter (MNADF). This approach differs from traditional speech enhancement methods since no a priori knowledge of the noise source statistics is required. Specifically, the proposed method is applied to the case where speech quality and intelligibility deteriorates in the presence of background noise. Speech coders and automatic speech recognition systems are designed to act on clean speech signals. Therefore, corrupted speech signals by the noise must be enhanced before their processing. The proposed method uses a primary input containing the corrupted speech signal and a reference input containing noise only. The new computationally efficient algorithm is developed here based on tracking significant frequencies of the noise and implementing MNADF at those frequencies. To track frequencies of the noise time-frequency analysis method such as short time frequency transform is used. Different types of noises from Noisex-92 database are used to degrade real speech signals. Objective measures, the study of the speech spectrograms and global signal-to-noise ratio (SNR), segmental SNR (segSNR) as well as subjective listing test demonstrate consistently superior enhancement performance of the proposed method over tradition speech enhancement method such as spectral subtraction.  相似文献   

16.
语音增强的多频带处理技术日益受到重视,提出G_W联合算法,使用Gammatone滤波器组将含噪语音信号分解成若干个频带信号,通过改进的Wiener滤波技术对各个频带信号进行降噪,最后综合这若干频带,得到增强后的语音。实验结果表明,该方法能够更为有效地抑制宽带噪声,降低音乐噪声残留,获得较好的听觉舒适度,具有实用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号