首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 78 毫秒
1.
提出了一种基于小波阈值去噪的语音增强算法。根据含噪语音中噪声、清音和浊音的不同特点,首先对它们进行检测区分,然后采用改进的Garrote阈值函数分别对噪声、清音和浊音运用不同的阈值方案进行处理。该方法在很大程度上抑制了噪声,又减少了语音段清音的损失,提高了信噪比,在MATLAB7.1中的仿真实验结果表明,该方法具有较好的增强效果。  相似文献   

2.
《微型机与应用》2019,(8):38-41
小波变换在语音处理中有广泛的应用,但是传统的阈值函数存在不连续且在临界阈值处不能平滑过渡等缺陷。针对这些缺陷,提出了一种改进的小波阈值函数,同时在获取阈值时采用贝叶斯阈值方法。最后通过仿真表明,改进的小波阈值函数与贝叶斯阈值方法结合能够实现临界阈值处的平滑过渡和解决不同层数阈值恒定的问题,而且提出的算法可以获得更高的信噪比和更小的均方误差,在降低信号失真和抑制噪声方面均有所提高。  相似文献   

3.
针对传统的小波包语音增强算法增强后的语音失真严重的问题,本文提出了一种基于自适应阈值和新阈值函数的小波包语音增强算法。该算法在小波包域将带噪语音加窗分帧,基于相邻帧快速傅立叶变换功率谱的互相关值,计算各帧存在语音的概率,然后通过语音存在概率对传统通用小波包阈值进行调整,使得阈值在非语音帧中较大,在语音帧中较小,实现阈值的自适应调整,可以在最大程度消除噪声的同时,尽可能的保留语音,减小语音失真。本文还设计了一种新阈值函数,克服了传统硬阈值函数不连续和软阈值函数会带来恒定偏差的缺点,进一步减小了语音失真。本文采用TIMIT 数据库和NOISEX-92 数据库中的语音和噪声进行了大量的模拟实验,主观评比和客观评比结果均证明本文提出的语音增强算法比现有的两种算法有更好的增强效果,采用本文算法增强后的语音失真更小,听觉效果更好。  相似文献   

4.
针对传统软、硬阈值函数去噪方法增强的语音存在失真的问题,提出一种新阈值函数的小波包语音增强算法,同时给出了新阈值函数和新的Bark尺度小波包分解结构。新阈值函数在小波包系数绝对值大于给定阈值的区间内,灵活地结合了软、硬阈值函数;在小波包系数绝对值小于给定阈值的区间内,用一种非线性函数代替传统阈值函数中的简单置零,实现了阈值函数的平缓过渡;新的60个频带Bark尺度小波包分解结构能更好地模拟人耳的听觉感知特性。仿真实验结果表明,在高斯白噪声和有色噪声背景下,与传统软、硬阈值函数去噪方法相比,新算法有效提高了增强语音信噪比和分段信噪比,减少了语音失真,具有更好的去噪效果。  相似文献   

5.
杨玺  樊晓平 《控制与决策》2006,21(9):1033-1036
提出一种基于仿生小波变换以及自适应阈值的语音增强方法.含噪语音通过仿生小波变换后,针对不同的尺度采用不同的阈值函数进行去噪.由于在小波变换过程中考虑了人耳的听觉特性,所提出方法优于基本的小波语音增强方法.实验表明,该方法在多种噪声条件下均具有较好的语音增强效果.  相似文献   

6.
由于噪声的影响导致语音信号的质量降低,因此需要对语音信号进行语音增强。语音增强是语音信号处理的前沿领域,其主要目标足从带噪语音中提取纯净的原始语音信号。介绍了实现语音增强方法的原理,利用实验仿真了传统谱减法和改进谱减方法,改进法通过对带噪信号进行参数调整,然后进行频域谱减,实验结果表明改进方法对语音增强效果明显好于传统方法。此外,对传统谱减法和改进谱减法的信噪比分别进行了计算,结果表明改进谱减方法的信噪比相对传统谱减方法有很大提高。  相似文献   

7.
基于改进谱减方法的语音增强研究   总被引:1,自引:0,他引:1  
由于噪声的影响导致语音信号的质量降低,因此需要对语音信号进行语音增强.语音增强是语音信号处理的前沿领域,其主要目标是从带噪语音中提取纯净的原始语音信号.介绍了实现语音增强方法的原理,利用实验仿真了传统谱减法和改进谱减方法,改进法通过对带噪信号进行参数调整,然后进行频域谱减,实验结果表明改进方法对语音增强效果明显好于传统方法.此外,对传统谱减法和改进谱减法的信噪比分别进行了计算,结果表明改进谱减方法的信噪比相对传统谱减方法有很大提高.  相似文献   

8.
张绘娟  张达敏 《计算机应用研究》2020,37(5):1545-1548,1552
针对传统硬阈值函数在阈值处的不连续、软阈值函数中小波系数与小波估计系数之间存在的恒定偏差问题,提出一种基于改进阈值函数的图像去噪算法。该算法结合改进阈值函数的优点,通过设置适当的调整参数动态选取固定阈值,增加调节因子来降低原小波系数和估计小波系数之间的恒定偏差,从而提高重构图像和原图像的逼近程度。改进后的阈值函数在阈值处满足连续性,同时满足函数的渐进性和高阶可导性。仿真结果表明,采用改进后的阈值函数进行图像去噪,视觉效果好,PSNR和SNR都提高了,MSE有所降低,去噪效果得到了优化。  相似文献   

9.
在提出了基于TEO的清音、浊音和噪音区分的基础上,采用不同的小波阈值处理方法在多尺度上进行阈值处理,并对阈值函数进行了改进。实验表明,该算法不但能够有效的抑制噪声,还能减少对清音部分的损失,既提高了信噪比,又改善了语音信号的清晰度和舒适度,是一种有效的语音增强算法。  相似文献   

10.
基于新阈值函数的小波阈值去噪算法   总被引:2,自引:0,他引:2  
王蓓  张根耀  李智  王静 《计算机应用》2014,34(5):1499-1502
针对传统小波阈值函数在阈值处的不连续性、小波估计系数存在偏差等不足,导致去噪后的图像出现失真、产生吉布斯震荡等问题,提出了一种改进的阈值函数,与常用的硬阈值、软阈值以及已有改进的阈值函数相比,该函数不仅易于计算,而且具有优越的数学特性。为了验证该阈值函数的优越性,通过仿真实验对几种小波去噪方法的峰值信噪比(PSNR)与均方差(MSE)进行了对比。实验结果表明,此去噪方法无论是在视觉效果上,还是在均方差和信噪比性能分析上均优于常用的阈值函数。  相似文献   

11.
为消除语音信号中噪声,改善语音质量,本文提出一种改进的减谱法。首先根据每帧的功率谱动态调整谱减系数,然后通过维纳滤波法把各种噪声变换为类似白噪声的噪声,最后用原减谱法把该噪声去除。实验证明,该方法有较好的去噪效果。  相似文献   

12.
刘玉珍  田金波 《测控技术》2016,35(11):33-35
语音端点检测是语音信号处理过程中的一个重要步骤,其准确性对语音信号处理有直接影响.传统的双门限语音端点检测技术,在纯净语音或高信噪比的情况下,语音端点判断准确,但低信噪比的情况下,端点识别率很低,出错率较高.为了提高低信噪比条件下语音端点检测的识别率,在传统双门限语音端点检测的基础上融合了语音增强,通过Matlab仿真实验,取得了较高的语音端点检测准确率.  相似文献   

13.
为了消除噪声对图像的影响并较好地保留图像细节信息,提出一种基于改进阈值函数的分数阶小波图像去噪方法。该方法通过分数阶小波变换将含噪信号进行多尺度分解,采用改进的阈值函数对各层分数阶小波域系数进行处理,对处理后的系数进行重构得到去噪后的信号。仿真实验表明,相比已有的软阈值、硬阈值和均值加权法,本文方法去噪后的图像信噪比较大、均方误差较小,取得了满意的视觉效果,是一种实用的去噪方法。  相似文献   

14.
基于改进谱减算法的语音增强新方法   总被引:10,自引:2,他引:8  
针对基本谱减算法中关于噪声是零均值的高斯分布的假设,提出了一种改进谱减算法,从而打破了这个假设。实验表明这种改进谱减算法有效地提高了增强效果,更好地抑制了音乐噪声。  相似文献   

15.
基于最大信息熵的小波包阈值去噪语音增强算法   总被引:1,自引:0,他引:1  
杨桂芹  徐红莉 《测控技术》2011,30(10):12-14
去噪算法在语音增强中占有极为重要的地位.而传统的小波阈值去噪算法会不可避免地造成部分有用语音信号的损失.为了更好地对含噪语音信号进行去噪,选用小波包分析法进行语音分解,采用一种新的阈值函数,同时基于最大信息熵的原理确定了阈值和加权阈值函数中的权因子.仿真结果表明,该算法能够很好地抑制噪声,保证重建信号质量.无论在听觉效...  相似文献   

16.
介绍了改进谱减法的原理及算法。提出在信噪比(SNR)较低的情况下,根据语音短时能量和过零率,判断在无声或有声期间是否偶然的噪声过高,从而设定合适的参数降低噪声。实验证明该方法提高了输出信噪比,改善了语音质量,具有良好的语音去噪的效果。  相似文献   

17.
针对传统小波软、硬阈值函数以及现有部分文献所设计的阈值函数的不足,探索一种改进的小波阈值去噪算法.通过构造新的阈值函数,该函数具有更好的平滑性,并随着小波分解尺度变化而变化,因此有更好的适应性,且函数中不存在不确定参数,相应地提升了去噪稳定性.相比传统软、硬阈值函数方法,采用改进阈值函数去噪后信噪比(SNR)更大,均方差(MSE)更小,去噪效果更好.改进阈值函数的小波去噪算法更有优越性,具有较好的推广价值.  相似文献   

18.
一种基于改进谱减法的语音去噪新方法   总被引:2,自引:1,他引:2  
介绍了改进谱减法的原理及算法。提出在信噪比(SNR)较低的情况下,根据语音短时能量和过零率,判断在无声或有声期间是否偶然的噪声过高,从而设定合适的参数降低噪声。实验证明该方法提高了输出信噪比,改善了语音质量,具有良好的语音去噪的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号