首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
2.
提出了一种结合Mellin变换和Mel频率分析的语音信号特征--MMCC特征.该特征利用Mellin变换的尺度不变性质,抑制了特征参数受不同说话人声道变化的影响,同时结合Mel频率的人耳听觉特性,改善了特征的鲁棒性,适合于非特定人识别系统的应用.仿真结果表明,采用MMCC特征的非特定人语音识别系统,其识别效果优于采用LPCC特征、MFCC特征和MMTLS特征的非特定人语音识别系统.  相似文献   

3.
一种新的共振峰参数提取算法及在语音识别中的应用   总被引:2,自引:0,他引:2  
采用了一种基于逆滤波器原理的方法来识别共振峰参数。用一组逆滤波器来逼近语音信号的短时能谱,通过动态搜索算法可以得到滤波器组中各个滤波器的位置与带宽,从而确定了共振峰的位置和带宽。采用了优化动态搜索的算法,提高了运算速度。把共振峰作为特征参数用于一个小词汇量的汉语语音识别系统中。识别正确率达到了98%。  相似文献   

4.
一种基于听觉模型的语音特征提取方法   总被引:2,自引:0,他引:2  
提出了一种基于听觉模型的语音特征提取方法,从信号的过零点获得频率信息,从振幅值和非线性压缩获得强度信息,并对这种方法进行了误差分析,证明其噪声的鲁棒性。  相似文献   

5.
针对线性预测方法提取语音信号共振峰频率的不足,提出了一种基于共振峰增强的共振峰频率估计算法,从而在不增加运算量的情况下使共振峰频率的提取更加准确.实验结果表明,该算法在5kHz内提取前五个共振峰的性能都很好.  相似文献   

6.
田岚  董春阳 《控制与决策》1997,12(2):142-145
运用Walsh变换对语音信号进行分析,得到了语音信号的Walsh域特征——2D自由度功率谱特征。利用此特征采用神经元网络法对汉语数字音0~9进行不定人语音识别,结果表明,该特征不仅能给出足够的识别信息,而且由于Walsh变换只有加/减运算,因而在识别速度方面比常用的频域特征有明显提高。  相似文献   

7.
论文针对小波变换和语音信号的特点,把小波变换和形态滤波法结合应用于语音信号基音周期的提取,并在此基础上把小波变换和说话人声道特征参数相结合,用于声道特征的提取。最后在以上研究的基础上设计了一种用于公安侦破和司法鉴定的语音监测系统。  相似文献   

8.
基于小波变换的鲁棒性语音特征提取新方法   总被引:3,自引:0,他引:3  
张君昌  李艳艳 《计算机仿真》2010,27(8):355-358,362
提高语音识别系统的鲁棒性是语音识别技术一个重要的研究课题。语音识别系统往往由于训练环境下的数据和识别环境下的数据不匹配造成系统的识别性能下降。为了能得到无噪音的语音识别特性,让语音识别系统在含噪的环境下获得令人满意的工作性能,根据人听觉特性提出了一种鲁棒语音特征提取方法。将小波变换和MFCC算法相结合,在MFCC的前端用小波包变换代替FFT和Mel滤波器组,同时在后端用临界小波变换代替DCT,最后得到鲁棒语音特征。通过实验结果分析表明,将方法用于抗噪声分析可以提高系统的抗噪声能力;同时特征的处理方法对不同噪声有很好的适应性。  相似文献   

9.
针对语音信号的非平稳特性,传统的应用短时分析技术容易丢失信息的现状,提出了一种利用小波包变换的技术对语音信号的共振峰特征(FDWPT)进行提取的方法。对整个语音信号进行多分辨分析的小波包变换,这样可以得到每个频带的小波分解值,结合共振峰的频率特性,选取适当的小波包分解结点,对这些结点建立共振峰参数,使用矢量量化模型进行识别,从而提高了说话人识别的效果。  相似文献   

10.
耳语音是噪声源激励,与正常音相比,其共振峰位置发生了偏移,带宽增宽。故采用传统的线性预测法提取耳语音共振峰时存在虚假峰问题。通过分析功率谱,提出了一种改进算法。根据极点功率不变的原则,利用极点交互因子修正共振峰的带宽,从而准确地提取出耳语音的共振峰。对汉语普通话单元音音素仿真实验的结果证明了该算法的有效性。  相似文献   

11.
该文提出了一种基于能量分布和共振峰结构的汉语鼻音检测方法,该方法首先基于Seneff听觉谱提取了一组描述音段能量分布和共振峰结构的特征参数,然后采用支持向量机模型进行检测和分类,得到候选的鼻音,最后根据音段持续时间、前端韵母能量、高低频能量差、中低频能量比等特征对候选的鼻音进行后处理,去除插入错误,提高鼻音检测的准确率。实验结果表明,干净语音鼻音检测准确率可以达到90.4%,信噪比10dB的语音鼻音检测准确率可达到84.4%以上。  相似文献   

12.
在多源信息融合中,小波多分辨率分析是一种最常用的方法.这里提出在小波多分辨率分析下,利用K-L变换的融合方法.首先利用小波变换对序列图像进行多分辨率分解,对相应的小波系数矩阵进行K-L变换,计算出小波系数权重.按照所得的权重融合小波系数,最后将小波融合系数逆变换实现图像的融合处理.实验结果证实这种方法有效的利用了图像的相关性,主观视觉效果分析和客观统计参数评价分析都表明,新方法的性能优于直接对小波系数进行平均的融合方法.  相似文献   

13.
自相关函数法、平均幅度差函数法及小波变换法是经典的基音检测方法,本文简要分析了单独使用它们进行基音检测时存在的不足,提出了一种基于小波变换的加权自相关的检测方法。将多级小波变换的近似分量加权求和以突出基音信息,采用改进的平均幅度差函数加权自相关函数的方法以突出真实基音周期处的峰值,提高基音检测的正确率。实验表明,与传统的自相关函数法和平均幅度差函数法相比,本文方法减少了倍频和半频错误,提高了基音检测的精度,在信噪比为-5dB时仍能得到较准确的结果。  相似文献   

14.
图像感知哈希技术是一门较新型的技术,哈希提取过程的关键步骤是特征提取,传统的基于DCT变换的感知哈希技术抗几何攻击能力较差。试图在图像生成哈希之前,将几何形变对图像的影响去除,首先将图像进行正则化,使图像具有几何不变性,然后再进行DCT特征系数提取,最后通过量化、编码生成最终哈希。该算法可以抵抗任意的仿射变换。  相似文献   

15.
赵颜果  宋展 《集成技术》2013,2(2):26-33
本文提出一种基于变换特征和分层模型的静态手势检测方法,所采用的分层模型由一系列手势表观模型和一个总的判别模型构成,其中每个手势表观模型各包含一个通用模板和一系列子类模板。将这些模板作为转移函数,可以从原始的梯度方向直方图特征中得到一组新的特征表示,即变换特征。将此变换特征用于构造分层模型中的判别模型,可以实现背景与手势以及不同手势间的精确分类。为了提高检测速度,算法在初始阶段引入了肤色滤波器方法,用于排除大部分的非肤色区域。实验表明,所述算法能够有效处理视角变换、手势倾斜、自然形变等因素带来的手势表观波动,处理速度可达20帧/秒以上,在鲁棒性和计算效率方面均体现了明显的优势。  相似文献   

16.
基于分段线性频谱弯折函数的说话人归一化方法   总被引:1,自引:0,他引:1  
在传统的声道长度归一化方法中 ,基于声道无损级联短管模型假设 ,用一个简单的声道因子来确定频谱弯折函数 ,无法描述出不同说话人的频谱差异的细节 .针对这一缺陷 ,提出用细致的分段线性频谱弯折函数来描述说话人差异 ,在适当的频谱分段下 ,较好地完成了频谱对齐的任务 .此外 ,由于利用了与模型无关的频谱弯折函数 ,该方法被证明是一种快速的、尤其适用于无监督模式的说话人鲁棒性方法  相似文献   

17.
18.
基于非下采样Contourlet的图像融合   总被引:2,自引:0,他引:2  
张义飞 《微计算机信息》2007,23(27):283-284,119
本文提出了一种基于非下采样Contourlet变换的图像融合方法。与Contourlet变换相比,非下采样Contourlet变换不仅具有多尺度、多方向特性,同时还具备平移不变性。文中针对非下采样Contourlet变换的特点和人眼的视觉特性,在较粗尺度采用对比度融合规则,较细尺度采用局部方差最大化规则,低频采用平均规则。该方法不但继承了Contourlet变换对方向信息融合的优点,同时又有效地去除了Contourlet变换中出现的吉布斯现象。仿真实验表明,本文方法优于Contourlet变换以及现有的小波,非下采样小波等方法。  相似文献   

19.
一种基于小波变换的混合去噪方法   总被引:1,自引:0,他引:1  
该文提出了一种基于小波变换的混合去噪方法。该方法通过对图像进行小波分解后,首先确定低分辨率的截断参数,对于大于此截断参数的小波系数,进行小波收缩处理;而对小于此截断参数的小波系数,进行异性扩散迭代去噪。实验结果表明,该算法具有两种方法集成优点的去噪效果,边缘也能较好地保持。  相似文献   

20.
李瑶  董瑞  何韬  梁栋 《微机发展》2007,17(3):81-83
在变换域阈值去噪过程中,阈值的选取和阈值处理方法至关重要。提出一种基于contourlet变换的图像去噪方法。采用分层阈值,为每一级contourlet系数选取一个阈值。阈值处理中给出一种基于邻域的阈值处理方法,不仅考虑单个系数幅值的大小,而且考虑它的邻域系数幅值的大小。同时为了抑制在去噪图像边缘附近的伪吉布斯效应,引入cycle spin-ning来抑制这种图像失真。实验结果表明,利用文中去噪方法进行去噪比其他方法得到更好的视觉效果和更高的PSNR值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号