首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 93 毫秒
1.
基于子带能熵比的语音端点检测算法   总被引:1,自引:0,他引:1  
张毅  王可佳  席兵  颜博 《计算机科学》2017,44(5):304-307, 319
准确地识别语音端点是语音识别过程中的一个重要步骤。在低信噪比环境下,为更好地增强语音和噪声的区分度,提高语音端点检测系统的准确率,在分析了常规子带谱熵端点检测算法的基础上结合子带能量,提出了一种基于子带能熵比的语音端点检测算法。该算法将子带能量和子带谱熵的比值作为端点检测的重要参数,以此设定阈值进行语音端点的检测。实验表明,该算法快速高效,具有较高的鲁棒性,在较低的信噪比环境下能准确地进行语音端点检测。  相似文献   

2.
语音增强主要用来提高受噪声污染的语音可懂度和语音质量,它的主要应用与在嘈杂环境中提高移动通信质量有关。传统的语音增强方法有谱减法、维纳滤波、小波系数法等。针对复杂噪声环境下传统语音增强算法增强后的语音质量不佳且存在音乐噪声的问题,提出了一种结合小波包变换和自适应维纳滤波的语音增强算法。分析小波包多分辨率在信号频谱划分中的作用,通过小波包对含噪信号作多尺度分解,对不同尺度的小波包系数进行自适应维纳滤波,使用滤波后的小波包系数重构进而获取增强的语音信号。仿真实验结果表明,与传统增强算法相比,该算法在低信噪比的非平稳噪声环境下不仅可以更有效地提高含噪语音的信噪比,而且能较好地保存语音的谱特征,提高了含噪语音的质量。  相似文献   

3.
一种改进的维纳滤波语音增强算法   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了一种改进的语音增强算法,该算法以基于先验信噪比估计的维纳滤波法为基础。首先通过计算无声段的统计平均得到初始噪声功率谱;其次,计算语音段间带噪语音功率谱,并平滑处理初始噪声功率谱和带噪语音功率谱,更新了噪声功率谱;最后,考虑了某频率点处噪声急剧增大的情况,通过计算带噪语音功率谱与噪声功率谱的比值,自适应地调整噪声功率谱。将该算法与其他基于短时谱估计的语音增强算法进行了对比实验,实验结果表明:该算法能有效地减少残留噪声和语音畸变,提高语音可懂度。  相似文献   

4.
联合听觉掩蔽效应的子空间语音增强算法   总被引:1,自引:0,他引:1       下载免费PDF全文
在经典子空间语音增强算法中,因语音特征值估计偏差会造成语音失真和音乐噪声。针对该问题,提出一种联合听觉掩蔽效应的语音增强算法。该算法联合掩蔽阈值自适应调节噪声特征值的抑制系数,并利用维纳滤波对音乐噪声的抑制性,对该特征值并行修正,最终还原出纯净的语音。实验结果证明,该算法在白噪声和有色噪声的背景下,与经典子空间的语音增强算法相比,能提高信噪比,减少语音失真和音乐噪声。  相似文献   

5.
将非平稳噪声估计算法以及基于听觉掩蔽效应得到的噪声被掩蔽概率应用于维纳滤波语音增强中,提出了一种听觉掩蔽效应和维纳滤波的语音增强方法。几种噪声背景下对语音增强的客观测试表明,提出的算法相比较于传统的维纳滤波语音增强算法而言不但可以提高语音信噪比,而且可以明显减少语音失真。  相似文献   

6.
7.
针对复杂背景噪声下语音增强后带有音乐噪声的问题,提出一种子空间与维纳滤波相结合的语音增强方法。对带噪语音进行KL变换,估计出纯净语音的特征值,再利用子空间域中的信噪比计算公式构成一个维纳滤波器,使该特征值通过这个滤波器,从而得到新的纯净语音特征值,由KL逆变换还原出纯净语音。仿真结果表明,在白噪声和火车噪声的背景下,信噪比都比传统子空间方法有明显提高,并有效抑制了增强后产生的音乐噪声。  相似文献   

8.
刘艳  倪万顺 《计算机应用》2015,35(3):868-871
前端噪声处理直接关系着语音识别的准确性和稳定性,针对小波去噪算法所分离出的信号不是原始信号的最佳估计,提出一种基于子带谱熵的仿生小波变换(BWT)去噪算法。充分利用子带谱熵端点检测的精确性,区分含噪语音部分和噪声部分,实时更新仿生小波变换中的阈值,精确地区分出噪声信号小波系数,达到语音增强目的。实验结果表明,提出的基于子带谱熵的仿生小波语音增强方法与维纳滤波方法相比,信噪比(SNR)平均提高约8%,所提方法对噪声环境下语音信号有显著的增强效果。  相似文献   

9.
为减少维纳滤波在语音增强中残留的"音乐噪声",将多窗谱估计和改进的维纳滤波方法结合,并进行语音合成。设计了基于多窗谱估计的改进维纳滤波语音增强方法,该方法采用多窗谱估计噪声功率谱,改进维纳滤波降噪得到增强语音,以及重叠相加语音合成,并给出仿真对比验证。结果表明,基于多窗谱估计的改进维纳滤波方法在抑制噪声,减少音乐噪声方面优于基于维纳滤波的增强算法和基于多窗谱估计的改进谱减法的增强算法。  相似文献   

10.
提出一种基于谱减法和听觉掩蔽效应的改进的卡尔曼滤波语音增强算法.引入基于谱减法的AR参数估计使卡尔曼算法降低了复杂度和计算量从而易于实现.用卡尔曼滤波滤除噪声的同时结合人耳听觉掩蔽特性设计一个后置感知滤波器,使得从卡尔曼滤波获得的估计误差低于人耳掩蔽阈值,在去噪和语音失真之间取较好的折中.仿真结果表明所提方法优于传统的卡尔曼滤波增强法,能够有效地减少语音失真,并且更符合人耳听觉特性,特别是在低信噪比的情况下,语音具有更好的清晰度和可懂度.  相似文献   

11.
针对广义旁瓣相消器(Generalized sidelobe canceller,GSC)存在非相干噪声消除性能不佳的缺陷,提出了采用后置Kalman滤波器改进的GSC去噪算法。该算法通过归一化最小均方算法校正自适应噪声对消器,并将滤除方向性干扰噪声后的语音信号输出到Kalman滤波器中,对残余背景噪声进行迭代最小均方误差(Minimum mean square error,MMSE)估计,抑制非相干噪声与麦克风阵元所产生的热噪声。经过在不同信噪比条件下客观语音质量评估(Perceptual evaluation of speech quality,PESQ)及语谱图分析后证明,与传统的GSC以及后置谱减法的改进GSC相比,本算法在噪声消除上的表现更为优越,且增强后信号也更接近目标信号。  相似文献   

12.
提出一种符合人耳听觉感知的语音增强方法,使电子耳蜗能在噪声环境下获得准确的语音信息。利用Bark子波变换实现电子耳蜗中的语音处理,结合人耳听觉系统特性实现语音增强。使用根据人耳听觉掩蔽效应提出的自适应减参数。实验结果表明该算法在低信噪比情况下,信噪比可提高30 dB左右,更好地抑制了残留噪声和背景噪声,合成的语音具有较好清晰度和可懂度。  相似文献   

13.
基于谱减法的听觉模拟的语音增强   总被引:1,自引:0,他引:1  
提出了一种适于低信噪比下的语音增强算法。该算法以传统的谱减法为基础,所用减参数是根据人耳听觉掩蔽效应提出的且是自适应的。对该算法进行了客观和主观测试,结果表明:相对于传统的谱减法,该算法能更好地抑制残留噪声和背景噪声,特别是对低信噪比的语音信号。  相似文献   

14.
基于阈值的小波域语音增强新算法   总被引:1,自引:0,他引:1  
提出了一种新的基于阈值的小波域语音增强算法,采用Bark尺度小波包对含噪语音进行分解,以模拟人耳的听觉特性.采用结点阈值法,用基于谱熵的方法估计结点噪声,实验表明,该算法在多种噪声,尤其是有色噪声和非平稳噪声条件下均有较好的语音增强效果.  相似文献   

15.
针对小波域维纳滤波图像降噪存在计算速度慢和降噪效果较差,本文提出一种改进的小波域维纳滤波算法,将阈值化处理引入小波域维纳滤波,通过阈值化处理小波变换后的系数来提高降噪效果。依据改进算法的具体过程和算法步骤,运用MATLAB进行算法仿真,仿真结果表明,改进的小波域维纳滤波算法进行图像降噪可以有效地提高图像的信噪比,降噪效果良好,同时计算速度较快,节约时间。  相似文献   

16.
传统的小波阈值去噪方法会造成有用语音信号的损失, 信噪比改善情况不理想. 通过分析小波去噪原理, 提出了一种改进的小波阈值函数语音增强方法. 该方法结合小波软、硬阈值函数去噪的优点, 克服了硬阈值函数的不连续及软阈值函数存在偏差的缺点. 该方法首先对清浊音信号进行判断, 接着采用变化的阈值对清浊音信号的小波系数进行不同的阈值处理. 仿真实验结果表明, 改进的方法非常适用于强噪声背景下的语音增强, 无论在保留含噪语音信号中的清音信息, 还是在信噪比改善指标上均优于传统的软阈值法、谱减法和听觉感知小波变换法.  相似文献   

17.
基于最大信息熵的小波包阈值去噪语音增强算法   总被引:1,自引:0,他引:1  
杨桂芹  徐红莉 《测控技术》2011,30(10):12-14
去噪算法在语音增强中占有极为重要的地位.而传统的小波阈值去噪算法会不可避免地造成部分有用语音信号的损失.为了更好地对含噪语音信号进行去噪,选用小波包分析法进行语音分解,采用一种新的阈值函数,同时基于最大信息熵的原理确定了阈值和加权阈值函数中的权因子.仿真结果表明,该算法能够很好地抑制噪声,保证重建信号质量.无论在听觉效...  相似文献   

18.
工业中用于无损检测的X光图像存在信噪比低、清晰度差、对比度低等缺点。为改善X光图像质量,提出一种改进的多尺度 Retinex滤波(MSR)算法。将原始图像进行小波分解,在低频子带上进行MSR滤波,在高频子带上进行阈值滤波,实现图像重构。实验结果表明,改进MSR算法能同时达到图像增强和去噪的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号