首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 46 毫秒
1.
语音增强是语音处理中常用的手段,在传播语音信号的同时噪声信号也随之添加进来,为了得到纯净的语音信号,我们对带噪信号进行语音增强,我们一般使用谱减法进行语音增强,但面对变化较大的噪声效果不理想。文章提出了一种改进的谱减语音增强方法,通过实验仿真表明,该方法有效地解决了噪声变化大情况下的语音增强。  相似文献   

2.
语音增强是语音处理中常用的手段,在传播语音信号的同时噪声信号也随之添加进来,为了得到纯净的语音信号,我们对带噪信号进行语音增强,我们一般使用谱减法进行语音增强,但面对变化较大的噪声效果不理想。文章提出了一种改进的谱减语音增强方法,通过实验仿真表明,该方法有效地解决了噪声变化大情况下的语音增强。  相似文献   

3.
谱减法是语音增强处理中常用的方法。针对应用于单通道语音增强的谱减技术中存在的"音乐噪声"问题,引入了一种改进的基于几何谱减法的语音增强算法。大大消除了背景噪声,改善了"音乐噪声"现象,保持了较好的语音可懂度和自然度。  相似文献   

4.
郭莉莉  陈永红 《通信技术》2021,(6):1350-1355
传统的谱减法语音增强算法存在"音乐噪声"问题.针对此问题,引入过减因子和补偿因子两个参数对传统的谱减法进行改进.其中:过减因子可以调节在带噪语音功率谱中减去的噪声分量;补偿因子可以降低人耳对残留噪声的感知度.在两个参数的共同作用下,算法在抑制"音乐噪声"的同时可以使语音成分更加突出,且人耳的接受度更高.仿真结果表明,与...  相似文献   

5.
提出了一种谱减法的改进形式,算法打破了噪声和语音是相互独立且噪声是零均值的高斯分布假设.实验表明这种改进型谱减算法有效提高了增强效果,更好地抑制了音乐噪声.  相似文献   

6.
谱减法是目前受到广泛研究的语音增强算法之一,但谱减法分辨率固定及存在音乐噪声残留的问题,限制了谱减法的应用推广。本文针对以上问题,利用小波变换的多分辨率特性及谱减法运算量小、处理速度快的特点,提出了一种基于小波变换和改进的Berouti谱减法的改进语音增强算法。实验结果表明,该算法在抑制噪声,增强语音信号的可懂度及鲁棒性方面优于传统的谱减法。  相似文献   

7.
针对传统谱减法会产生“音乐噪声”及在低噪比环境下降噪效果不理想的问题,提出一种基于语谱图分析的语音增强算法.所提方法先对带噪语音进行谱减处理,再通过语谱图分析对处理后的语音信号进行去小亮块处理,即对“音乐噪声”进行有效的削弱,最后通过设置阈值,滤除低灰度值的成份,即消除残留近似高斯噪声.实验结果表明,提出的算法可以有效地解决谱减法后残留的“音乐噪声”及低信噪比下谱减法残留噪声较大的问题.  相似文献   

8.
针对传统的谱减法在语音增强过程中存在音乐噪声的问题,提出了一种改进Berouti谱减法和维纳滤波相结合的语音增强算法。首先利用改进的Berouti谱减法对带噪信号进行初步语音增强,然后再通过维纳滤波器进行进一步的去噪,最后在MATLAB平台上进行实验仿真。实验结果表明,与传统的谱减法和维纳滤波法相比,该算法显示出了更好的增强性能,语音质量得到了较大的提升。  相似文献   

9.
语音增强是语音信号处理的重要课题。根据基于最小值追踪的谱估计方法,提出了一种非平稳噪声环境下快速追踪噪声变化的方法,将其应用到改进后的谱减法中,以提升语音增强的效果。仿真结果表明,改进后的谱减法能有效降低背景噪声,提高输出语音信号的信噪比。  相似文献   

10.
根据相关的临床经验,大多数老年人由于生理功能的下降而发音较差。在一些有噪声的场合下,老年人的对话语音信噪比容易发生过减,造成语音失真。因此,分析传统谱减法对增强老年人语音的缺陷,提出使用多频带谱减法,并引入多频带谱减算法对初始语音进行幅度增强,提升语音信号预处理中的细节保留。实验结果表明,与传统的谱减法相比,信噪比较低的情况下,多频带可以有效提高老年人的语音质量和清晰度。  相似文献   

11.
针对传统谱减语音增强算法增强后的语音信号会残留明显的"音乐噪声"的问题,采用多频带谱减算法对其进行改进。改进算法的原理是将带噪的语音信号按照频率划分成不同的频带,并使这些频带之间互不交叠,根据频带内带有噪声的语音信号和噪声信号信噪比,利用自适应算法求得该频带的过减因子。仿真结果表明:改进多频带谱减算法的语音增强效果优于传统谱减法。  相似文献   

12.
基于谱减算法语音增强的研究   总被引:1,自引:0,他引:1  
谱减法是处理宽带噪声较为传统和有效的方法,它的运算量较小,容易实时实现,增强效果也较好.比较详细地叙述了谱减法的基本原理和降低音乐噪声的方法.  相似文献   

13.
针对传统谱减法具有残余音乐噪声过强,清音部分损失严重的缺点,提出了一种利用语音信号的短时平均幅度差特征(AMDF)并结合短时平均幅度(AM)的语音检测算法,在原始语音估计式中引入了参数α和β,对传统的谱减法进行改进。根据采集的真实带噪语音数据,将传统谱减法和改进的谱减法结果进行了比较分析。在研究基于改进的谱减法的语音增强算法基础上,构建了以TMS320VC5509和TLV320AIC23 Codec为核心器件的实时系统,能够有效地提高语音信噪比.信号的信噪比由12.2dB提高到了4.0dB.改善了语音质量。  相似文献   

14.
基于自适应滤波与非线性谱相减算法的联合降噪技术研究   总被引:1,自引:1,他引:1  
讨论了在强噪声环境下将自适应滤波算法与非线性谱相减算法相结合的语音增强方法。仿真结果表明,在大大消除背景噪声的同时,该方法还有效地抑制了“音乐噪声”,运算量小,适用于强噪声环下的有声/无声检测。  相似文献   

15.
针对传统最小统计噪声估计谱减法在低信噪非平稳噪声环境下存在的噪声估计误差较大及搜索延迟较大的问题,对带噪语音进行频域平滑然后进行全局平滑,并且提出使用双向搜索的方法,减小了搜索延迟.实验结果表明,文中提出的方法有效地实现了语音增强,具有一定的使用价值.  相似文献   

16.
语音增强技术是音频信号处理中的重要部分,频谱减法是目前在语音增强技术中最常用的方法之一。针对传统频谱减法会产生音乐噪声并无法消除音乐噪声的不足之处及高频噪声干扰比较严重的情况下频谱减法效果差的情况,采用了在频谱减法之后进行LMS滤波以降低音乐噪声对语音质量的影响和低通滤波以滤除脉冲干扰。根据仿真结果表明,改进扩展频谱减法能够有效降低音乐噪声和尖锐的高频兹兹声,从而提高信噪比,达到语音增强的目的。  相似文献   

17.
Two gain forms of spectral amplitude subtraction are derived theoretically without neglecting the correlation of speech and noise spectrum during the period of a fralne. In the implementation, the constrained gain is expressed as a function of noncausal a priori SNR (Signal-to-Noise Ratio). Noise and noncausal a priori SNR are estimated from the multitaper spectrum of the noisy signal with algorithms modified to be suitable for the multitaper spectruln. Objective evaluations show that in case of white Gaussian noise the proposed method outperforms some methods based on LSA (Log Spectral Amplitude) in terms of MBSD (Modified Bark Spectral Distortion), segmental SNR and overall SNR, and informal listening tests show that speech reconstructed in this way has little speech distortion and musical noise is nearly inaudible even at low SNR.  相似文献   

18.
唐建云 《电子测试》2011,(10):46-50
随着移动通信技术的快速发展,语音增强的研究及其实际应用成为数字化通信的一个重要的研究方向。在数字信号处理技术的支撑下,许多优秀的语音增强算法的实时实现成为了可能。谱减法是一种运算量相对较小,增强效果明显,并且容易实时实现的语音增强算法,但是其缺点就是残留有音乐噪声。针对传统谱减法,本语音增强系统采用了一种改进算法,就是...  相似文献   

19.
一种基于听觉掩蔽模型的语音增强算法   总被引:14,自引:0,他引:14  
本文提出一种基于听觉掩蔽模型的语音增强算法。该算法对应用于语音编码中的听觉掩蔽模型进行了适当的修正,动态地确定第一帧语音信号各个关键频率段的听觉掩蔽阈值,有选择性地进行谱减。计算机仿真表明所提算法优于基本谱减法,不仅信噪比有较大的提高而且有效地减少了主观听觉的失真和残留音乐噪声。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号