首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
提出了一种改进的CIS电子耳蜗的脉冲刺激方案。利用听觉外周模型产生一种符合听神经发放机制的刺激脉冲序列来刺激电极,代替传统的均匀交替刺激方案,不仅可以通过包络而且可以通过脉冲间隔来传递语音信息,确保了语音的空间编码和时间编码。听觉仿真实验表明,相对于其他两种方案,方案可以有效地传递更多更丰富的语音信息,在汉语声调识别实验中至少提高19.2%识别率,在可懂度的对比实验中具有最高可懂度。  相似文献   

2.
针对线性预测方法提取语音信号共振峰频率的不足,提出了一种基于共振峰增强的共振峰频率估计算法,从而在不增加运算量的情况下使共振峰频率的提取更加准确.实验结果表明,该算法在5kHz内提取前五个共振峰的性能都很好.  相似文献   

3.
该文提出了一种基于能量分布和共振峰结构的汉语鼻音检测方法,该方法首先基于Seneff听觉谱提取了一组描述音段能量分布和共振峰结构的特征参数,然后采用支持向量机模型进行检测和分类,得到候选的鼻音,最后根据音段持续时间、前端韵母能量、高低频能量差、中低频能量比等特征对候选的鼻音进行后处理,去除插入错误,提高鼻音检测的准确率。实验结果表明,干净语音鼻音检测准确率可以达到90.4%,信噪比10dB的语音鼻音检测准确率可达到84.4%以上。  相似文献   

4.
语音端点检测是语音信号预处理的重要一步,其准确度对语音合成和语音识别系统的性能起着决定性的作用.根据共振峰谐波能量特征,提出一种采用图像处理技术处理语谱图的语音端点检测算法.首先去除了语谱图中的周期性干扰,然后进行滤噪与分割,最后利用高斯一阶差分滤波器提取共振峰和获取语音端点.实验结果表明,在不同信噪比的白噪声和多种突发性噪声环境下,与其他算法相比,该算法效果更好.  相似文献   

5.
耳语音是噪声源激励,与正常音相比,其共振峰位置发生了偏移,带宽增宽。故采用传统的线性预测法提取耳语音共振峰时存在虚假峰问题。通过分析功率谱,提出了一种改进算法。根据极点功率不变的原则,利用极点交互因子修正共振峰的带宽,从而准确地提取出耳语音的共振峰。对汉语普通话单元音音素仿真实验的结果证明了该算法的有效性。  相似文献   

6.
基于量化和听觉感知的数字音频水印   总被引:3,自引:0,他引:3  
论文提出了一种新的用于音频作品版权保护的数字水印算法。水印(二值标志图像)由相邻小波包系数的特定量化关系表示。心理声学模型控制水印嵌入和小波包分解过程,确保水印嵌入是不可感知的,同时使子带分解结构接近于临界频带,因此与以往算法相比该算法提高了子带掩蔽阈值,即加大了水印的抗攻击范围,增强了水印的鲁棒性。实验结果显示该算法能有效抵抗MP3压缩,低通滤波,重新采样和添加白/随机噪声等多种攻击。  相似文献   

7.
电子耳蜗是一种可以使重度耳聋患者恢复听觉的医学装置,接收刺激器是其中的关键组成部分,设计了一种基于MSP430和nRF2401的电子耳蜗接收刺激器方案,它利用MSP430微控制器作为系统的控制核心,控制nRF2401收发芯片来实现信号的准确接收,并对接收到的信号进行CVSD解码,根据解码得到的控制信号产生强度和频率可控的双相刺激脉冲。  相似文献   

8.
基于听觉感知模型的自适应音频数字水印算法   总被引:1,自引:0,他引:1  
提出了一种基于听觉感知模型的自适应音频数字水印算法。该算法采用了适合于时变信号分析的小波包来分解音频信号。小波包分解满足心理声学模型所需的频率分辨率,可直接在小波域中计算掩蔽阈值,而不需像MEGP等算法那样进行FFT运算,从而大大降低了计算的复杂程度。实验结果表明,水印系统对MP3压缩、噪声干扰、重量化、低通滤波攻击有一定的鲁棒性。  相似文献   

9.
针对目前噪声环境下电子耳蜗汉语声调和语句识别率急剧下降问题,提出了一种基于时间精细结构过零刺激方案(FSZC)。利用语音信号时间精细结构的过零点时刻产生高速脉冲刺激序列,从而不仅将时间精细结构编码到电子耳蜗语音算法中,同时采用过零点时刻非均匀的采样脉冲刺激序列,确保了语音的空间编码和时间编码。声学模拟实验表明,相比于连续交替采样策略(CIS)和过零点时刻刺激策略(ZCT),FSZC方案在汉语声调和语句识别率上都有较大程度的提高,而且在噪声环境下对于声调和语句识别具有相对较强的抗噪性。  相似文献   

10.
基于听觉感知模型的多通道语音增强系统   总被引:1,自引:0,他引:1  
提出以模拟听觉感知模型的非均匀滤波器组为基础的多通道语音增强系统,与基于均匀滤波器组的语音增强系统相比,该方法达到相同频率分辨率所需的通道数较少。采用Itakura-Saito距离对系统进行客观评价,仿真结果表明,该系统增强后的语音比均匀多通道系统增强后的语音具有更好的改善效果。  相似文献   

11.
提出一种基于人类听觉特性的自适应小波滤波算法。该方法用听觉感知小波变换对含噪语音信号进行小波分解,这样可以保证对信号频率和幅值的听觉特性,将经听觉感知小波变换所分离出来的噪声成分作为自适应滤波器的输入。通过采用递推最小二乘算法从而实现信噪分离的最佳滤波,以保证去除信号中的相关噪声。结果表明,该方法能实现非平稳信号在同频段对噪声成分和有用信号的最佳估计,提高了语音的清晰度和可懂度。  相似文献   

12.
虹膜纹理上的差异是不同虹膜相互区别的最主要原因和体现.因此,要想获得很高的虹膜识别率,就要有效地提取虹膜的纹理信息.基于二维小波变换和方向向量,提出一种新的虹膜特征提取方法.该方法的基本思想是考虑虹膜纹理的灰度变化,对于多层小波分解后的低频分量,分别求其在4个方向上的方向向量,最后形成虹膜码.测试结果表明,该方法能有效地提高虹膜的识别率,且算法简单、快速.  相似文献   

13.
基于小波包变换和蚁群算法的纹理分类   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了一种小波包变换和蚁群算法相结合的纹理分类新方法。首先采用小波包变换提取纹理图像的纹理特征向量,然后用蚁群算法进行训练和分类。实验表明小波包变换和蚁群算法应用到纹理分类领域,是一次有效的尝试。  相似文献   

14.
基于小波包变换的脑电波信号降噪及特征提取   总被引:1,自引:0,他引:1       下载免费PDF全文
针对原始脑电波信号存在非平稳性且非常容易受到各种信号干扰等特点,对基于小波变换和小波包变换的脑电波信号的滤波降噪方法,和基于小波包变换的脑电波信号特征提取方法进行了研究。首先利用MindSet采集到原始脑电波数据,然后分别应用小波变换和小波包变换对其进行降噪处理,比较了两种方法的性能,验证了基于小波包变换的降噪方法的优越性和特征提取方法的有效性。  相似文献   

15.
针对语音信号的非平稳特性,传统的应用短时分析技术容易丢失信息的现状,提出了一种利用小波包变换的技术对语音信号的共振峰特征(FDWPT)进行提取的方法。对整个语音信号进行多分辨分析的小波包变换,这样可以得到每个频带的小波分解值,结合共振峰的频率特性,选取适当的小波包分解结点,对这些结点建立共振峰参数,使用矢量量化模型进行识别,从而提高了说话人识别的效果。  相似文献   

16.
提出了一种基于小波变换和均值偏移的无监督纹理图像分割算法。首先用小波变换对图像进行二级小波分解,然后用均值偏移算法估计出粗尺度上对应的聚类数目,并结合模糊c均值算法进行聚类,在此基础上,用定义的阈值函数和Fisher判据确定出细尺度上每个初始聚类中心的一个同组,从而实现图像的由粗到细的分割。实验结果表明,在分割精度相差不大的情况下,该方法解决了传统聚类方法所存在的需要聚类数目和对初始聚类中心敏感问题。  相似文献   

17.
提出了一种新的快速对人耳图像进行特征提取的方法,先对人耳图像进行二维的离散小波分解,然后使用正交质心算法对小波分解后得到的低频信息进行降维,进而获得图像的特征向量。实验证明,该方法与模式识别领域中广泛应用的Fisherfaces方法相比,在识别率大体相当的前提下,具有计算量小、降维速度快的优点,是对人耳图像进行特征提取的一种有效手段。  相似文献   

18.
针对图像处理中的边缘检测问题,提出了一种基于小波变换和曲波变换的图像边缘检测新算法。首先对原始图像进行小波变换得到小波边缘图像;然后对原始图像进行曲波变换并使用Canny算子得到曲波边缘图像;最后基于小波变换的窗口内边缘强度自适应融合算法将小波边缘图像和曲波边缘图像进行融合得到最终边缘图像。该方法结合了小波变换描述图像细节特征的优势和曲波变换处理曲线或直线边缘特征的优势,能全面刻画边缘图像的纹理与细节信息,提高了图像清晰度。仿真实例表明了该算法的有效性。  相似文献   

19.
运用小波进行图像分解提取低频子带图,并利用优化的线性判别分析(LDA)算法寻找最优投影子空间,从而映射提取人脸特征,实现人脸的分类识别。该方法避免了传统LDA算法中类内离散度矩阵非奇异的要求,解决了边缘类重叠问题,具有更广泛的应用空间。实验表明:该方法优于传统的LDA方法和主分量分析(PCA)方法。  相似文献   

20.
针对基于Gabor小波幅值与相位的人脸特征提取方法的特征级联方式使得特征向量维度较高的问题,提出了一种改进的Gabor小波变换特征提取算法。该算法计算局部幅值特征和局部相位特征,增强了每个像素的局部关联性;然后通过实验选定加权系数,将幅值特征与相位特征进行加权融合。实验结果表明,该算法与改进前的算法相比,降低了特征向量的维度,且提高了最终的人脸识别率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号