首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 390 毫秒
1.
基于语音存在概率和听觉掩蔽特性的语音增强算法   总被引:1,自引:0,他引:1  
宫云梅  赵晓群  史仍辉 《计算机应用》2008,28(11):2981-2983
低信噪比下,谱减语音增强法中一直存在的去噪度、残留的音乐噪声和语音畸变度三者间均衡这一关键问题显得尤为突出。为降低噪声对语音通信的干扰,提出了一种适于低信噪比下的语音增强算法。在传统的谱减法基础上,根据噪声的听觉掩蔽阈值自适应调整减参数,利用语音存在概率,对语音、噪声信号估计,避免低信噪比下端点检测(VAD)的不准确,有更强的鲁棒性。对算法进行了客观和主观测试,结果表明:相对于传统的谱减法,在几乎不损伤语音清晰度的前提下该算法能更好地抑制残留噪声和背景噪声,特别是对低信噪比和非平稳噪声干扰的语音信号,效果更加明显。  相似文献   

2.
针对传统谱减法存在的算法缺陷,提出一种基于联合最大后验概率的改进谱减法.传统谱减法通过获取带噪语音与噪声的幅度差值,并提取带噪语音的相位信息进行语音信号重建.该方法因为谱相减产生“音乐噪声”,并因为相位估计不准确,导致低信噪比下信号增强效果不理想.为此,引入多频带谱减法和相位估计,通过划分频谱,分别在子频带进行谱减法,有效降低“音乐噪声”的影响;同时构建基于最大后验概率的相位估计器,联合信号幅度函数和相位函数,通过多次交替迭代得到相位估值.实验结果表明,相对于传统谱减法,在低信噪比下该算法有效提高增强语音的质量感知和可懂度.  相似文献   

3.
针对提高应用多通道皮肤听声系统进行语音识别的识别率,提出了基于多频带谱减法的语音增强算法。在多通道皮肤听声的实验中,有色噪声会严重降低语音质量,进而降低皮肤听声系统语音识别的识别率,因而首次将基于多带谱减法的语音增强算法引入到皮肤听声系统中以降低有色噪声。多频带谱减法将语音频带划分为多个子频带,分别在每个子频带作不同系数的谱减运算实现语音增强。通过Matlab完成了算法仿真并通过DSP硬件实现了算法并将增强后的语音信号输出给皮肤听声系统,实验证明此设计能够有效抑制有色噪声,增强皮肤听声系统的可靠性和实用性。  相似文献   

4.
基于盲源分离的单通道语音信号增强   总被引:1,自引:0,他引:1  
在运用基于独立分量分析(ICA)的盲源分离法进行语音增强时,要求观测信号(含噪语音)的个数不少于源信号(纯净语音和噪声)的个数.由于含噪语音通常是单通道的,所以必须合理地生成另一路的虚拟观测信号,以实现纯净语音和噪声的分离是个关键.介绍了一种基于盲源分离和谱减法的单通道语音信号增强的方法.首先运用谱减法对语音进行部分去噪,产生了ICA其中的一路观测信号,并产生了对噪声的估计值.用语音和噪声估计值的帧平均能量构成了加权函数,将噪声的估计值与原始含噪语音进行加权组合,生成另一路的虚拟观测信号.由于虚拟观测信号很好地再现了实际的观测信号,所以运用ICA可以较好地实现了噪声和语音的分离.同时,盲源分离和谱减法相互结合,使语音增强的性能提高.实验证明了算法可以在信噪比很小的情况下实现对噪声的去除,其效果要优于传统的去噪算法.  相似文献   

5.
针对单通道音增强,常用的谱减法及其改进型算法等语音增强方法不能很好地消除残留音乐噪声以及不能兼顾噪声抑制和语音失真的问题,提出用维纳滤波法与掩蔽效应相结合的算法。介绍了DSP的实现方法。结果表明,该算法相对于传统谱减法和改进谱减法语音增强效果显著、失真小、音乐噪声几乎没有,并且本算法计算量小,很容易在基于DSP的语音增强算法中实现。  相似文献   

6.
针对基于高斯分布的谱减语音增强算法,增强语音出现噪声残留和语音失真的问题,提出了基于拉普拉斯分布的最小均方误差(MMSE)谱减算法。首先,对原始带噪语音信号进行分帧、加窗处理,并对处理后每帧的信号进行傅里叶变换,得到短时语音的离散傅里叶变换(DFT)系数;然后,通过计算每一帧的对数谱能量及谱平坦度,进行噪声帧检测,更新噪声估计;其次,基于语音DFT系数服从拉普拉斯分布的假设,在最小均方误差准则下,求解最佳谱减系数,使用该系数进行谱减,得到增强信号谱;最后,对增强信号谱进行傅里叶逆变换、组帧,得到增强语音。实验结果表明,使用所提算法增强的语音信噪比(SNR)平均提高了4.3 dB,与过减法相比,有2 dB的提升;在语音质量感知评估(PESQ)得分方面,与过减法相比,所提算法平均得分有10%的提高。该算法有更好的噪声抑制能力和较小的语音失真,在SNR和PESQ评价标准上有较大提升。  相似文献   

7.
提出一种可适应非平稳噪声环境的基于码本学习的改进谱减语音增强算法。该算法分为训练阶段和增强阶段。训练阶段,使用自回归模型对语音和噪声的频谱形状进行建模并构造语音和噪声码本;增强阶段,采用对数谱最小化算法估计出语音和噪声的频谱,通过谱相减消除噪声。算法在每个时间帧估计语音和噪声频谱,即使在语音存在时仍能够有效跟踪快速变化的非平稳噪声;采用自回归模型能得到噪声频谱的平滑估计,减少了音乐噪声。实验仿真表明,相比于传统谱减法和多带谱减法,改进的谱减法具有更好的噪声抑制性能并且语音失真更小。  相似文献   

8.
基于改进谱减法的语音增强研究   总被引:2,自引:0,他引:2  
语音增强技术是语音信号处理中的重要课题之一,谱减法是目前语音增强处理中常用的方法.针对传统谱减法残余音乐噪声过强,清音部分损失严莺的缺点,引入了一种利用语音信号的短时平均幅度差特征并结合短时平均幅度的语音检测算法,对传统的谱减法进行了改进.根据采集的真实航空噪声数据,将传统谱减法和改进的谱减法结果进行了比较分析.仿真结果表明,改进形式的谱减法可以有效降低音乐噪声,提高信噪比和町懂度,可以满足语音增强的要求.  相似文献   

9.
为了减小传统谱减法引入的音乐噪声,提出了一种将多频带谱减和听觉掩蔽效应相结合的语音增强算法.用加权递归平滑的方法估计噪声的功率谱,对带噪的语音信号进行多频带谱减,计算听觉掩蔽阈值,再根据掩蔽阈值动态地调节谱减因子,通过增益函数得到增强后语音信号的频谱.仿真实验结果表明,与传统的谱减法相比,该算法在信噪比较低情况下,背景噪声和残余噪声得到了有效的抑制,语音信号的清晰度和可懂度也有了明显提升.  相似文献   

10.
对于低信噪比环境下的语音信号,传统谱减法残留的背景噪声较大。针对该问题,基于听觉掩蔽效应提出一种改进的语音增强算法。将人耳听觉掩蔽特性与功率谱减法相结合,设计一种时域递归平均算法对噪声进行估计,同时对带噪语音信号做频谱相减处理,从听觉的角度出发,利用估计的语音信号功率谱计算掩蔽阈值,并引入谱减功率修正系数和谱减噪声系数,实现带噪语音的信号增强。利用Matlab 2012b进行仿真,实验结果表明,该算法在低信噪比条件下能够较好地抑制背景噪声,改善语音质量,且与改进自适应滤波算法相比,其输出信号的信噪比可提高5%左右。  相似文献   

11.
章文义  朱杰 《计算机工程》2003,29(17):82-84
提出了一种新的噪音估计及非线性谱相减方法,通常的噪音估计一般基于语音检测方法,取噪音段的谱平均作为噪音谱的估计,该方法在信噪比较低时性能下降严重。提出的基于能量聚类的噪音谱估计方法,不依赖于语音检测直接估计噪音谱,提高了噪音谱估计的精度。还在一般非线性谱相减方法的基础上提出了改进的谱相减方法,该方法根据单个mel滤波器频带内局部的信噪比,来决定该频段内非线性谱相减的多少,细化了非线性差谱的额度,在有效抑制噪声的同时减少了语音谱的失真。  相似文献   

12.
抑制坦克强背景噪声的改进谱减法研究   总被引:1,自引:1,他引:0       下载免费PDF全文
谱减法是处理宽带噪声较为传统和有效的方法,它运算量较小,容易实时处理,增强效果也较好。根据经典谱减法及其各种改进形式的基本原理,提出一种新的改进谱减法语音增强算法。根据语音和噪声各自的特性,对带噪语音进行时域平滑和频谱统计加权处理。对该算法进行客观和主观测试表明:相对于传统的谱减法,该算法能更好地抑制背景噪声和音乐噪声,同时也较好地保持了语音的可懂度和自然度。  相似文献   

13.
针对语音系统受外界强噪声干扰而导致识别精度降低以及通信质量受损的问题,提出一种基于自适应噪声估计的语音增强方法。通过端点检测将语音信号分为语音段与非语音段,对这两种情况的噪声幅度谱分别进行自适应估计,并对谱减法中不具有通用性的假设进行研究从而改进原理公式。实验结果表明,相对于传统谱减法,该方法能更好地抑制音乐噪声,并保持较高清晰度和可懂度,提高了强噪声环境下的语音识别精度和通信质量。  相似文献   

14.
基于谱减法的听觉模拟的语音增强   总被引:1,自引:0,他引:1  
提出了一种适于低信噪比下的语音增强算法。该算法以传统的谱减法为基础,所用减参数是根据人耳听觉掩蔽效应提出的且是自适应的。对该算法进行了客观和主观测试,结果表明:相对于传统的谱减法,该算法能更好地抑制残留噪声和背景噪声,特别是对低信噪比的语音信号。  相似文献   

15.
16.
针对低信噪比条件下基本谱减算法存在降噪效果不佳,产生音乐噪声过大,语音可懂度不高的问题,提出了一种改进型的谱减算法。算法先计算语音信号的倒谱距离值,检测出噪音段和语音段,用动态计算的噪声值代替基本谱减法采用的噪声统计均值;根据当前帧和噪声帧的倒谱距离比值动态设置谱减系数,改进了传统算法中谱减系数保持不变的缺点;同时采用三种方法抑制音乐噪声。仿真实验表明,在低信噪比情况下,改进型的谱减算法可以有效降噪,提高信噪比和可懂度,达到语音增强的目的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号