首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 78 毫秒
1.
本文提出了一种基于帧间相关特性的连续语音流的音节切分方法,采用反映相邻帧间LPC系数相关程度的帧间相关特性及其参数,进行连续语音流的分段切分,并通过时域参数对切分出的各个语音段进行音索性质标记,再根据汉语音节组成规则最后确定出音节切分及其边界.汉语数字串语音流的音节切分实验表明了该方法的有效性.  相似文献   

2.
连续汉语语音识别中基于归并的音节切分自动机   总被引:4,自引:0,他引:4  
张继勇  郑方  杜术  宋战江  徐明星 《软件学报》1999,10(11):1212-1215
文章研究并实现了汉语连续语音中的音节自动切分算法——基于归并的音节切分自动机(merging-based syllable detection automaton,简称MBSDA)算法.MBSDA算法利用了包括语音的短时能量、过零率和基音周期在内的多种特征参数,把特征参数高度相似的相邻帧(1帧或若干帧)的语音信号进行“归并(merging)”,形成“归并类似段(merged similar segment,简称MSS)”,它们被认定属于同一音节的相同状态.这些MSS经过一个包含若干状态的“音节切分自动机(  相似文献   

3.
张扬  赵晓群  王缔罡 《计算机应用》2016,36(11):3222-3228
较准确的语音切分方法可以极大提高语料标注等工作的效率,有助于语音识别等应用中语音与模型的对齐。利用汉语语音在时频二维的能量特征设计了一种新的汉语语音音节切分方法。用传统方法判断静音帧,用相同时间不同频率的二维能量判断清音帧,用不同时间特定频段的0-1二维能量判断浊音帧及有话帧,综合4种判断结果给出音节切分位置。实验结果表明,该方法切分准确度优于基于归并的音节切分自动机(MBSDA)和高斯拟合法,其音节切分误差为0.0297 s,音节切分偏差率为7.93%。  相似文献   

4.
音节切分是整句拼音转换的基础,由于拼音的特殊性,存在歧义切分的可能。如果采用最少分词算法只能得到一种切分结果,不能保证整句拼音转换的正确性。提出一种音节切分算法,通过插入音素节点不断构造合法音节节点,进而生成状态空间,遍历算法遍历状态空间可获得所有的切分可能,而当用户进行删除操作时,只需删除部分相关节点。整个状态空间随用户的操作进行局部调整,分布均匀。该算法有利于存在歧义切分问题的整句拼音转换,可从保留下来的所有切分可能中选出一个全局最优的语句候选,保证整句转换的正确性。  相似文献   

5.
音节切分是整句拼音转换的基础,由于拼音的特殊性,存在歧义切分的可能.如果采用最少分词算法只能得到一种切分结果,不能保证整句拼音转换的正确性.提出一种音节切分算法,通过插入音素节点不断构造合法音节节点,进而生成状态空间,遍历算法遍历状态空间可获得所有的切分可能,而当用户进行删除操作时,只需删除部分相关节点.整个状态空间随用户的操作进行局部凋整,分布均匀.该算法有利于存在歧义切分问题的整句拼音转换,可从保留下来的所有切分可能中选出一个全局最优的语句候选,保证整句转换的正确性.  相似文献   

6.
在充分利用普通话水平测试试卷的文本信息、同一人的声母时长在常规语速下基本稳定、同一人的声母之间以及韵母之间的相对时长基本保持比例关系等先验知识的基础上,使用经小波变换后再重构的3个语音信号分量的累计能量特征为参数,提出了利用话者语音统计信息的两级音节切分算法,使音节切分精度达98.3%以上。  相似文献   

7.
音节是泰语构词和读音的基本单位,泰语音节切分对泰语词法分析、语音合成、语音识别研究具有重要意义。结合泰语音节构成特点,提出基于条件随机场(Conditional Random Fields)的泰语音节切分方法。该方法结合泰语字母类别和字母位置定义特征,采用条件随机场对泰语句子中的字母进行序列标注,实现泰语音节切分。在InterBEST 2009泰语语料的基础上,标注了泰语音节切分语料。针对该语料的实验表明,该方法能有效利用字母类别和字母位置信息实现泰语音节切分,其准确率、召回率和F值分别达到了99.115%、99.284%和99.199%。  相似文献   

8.
在基于单元选择的英语语音合成中,音节切分是非常重要的一环。这主要是因为英语词汇的无限性,且存在大量的 多音节词,因而许多情况下,我们不得不从音节的角度来合成语音。为此,本文提出了一种基于约束树的音节切分算法,通过应用 形态规则约束、韵律规则约束及音位规则约束,从而最终切分出所有音节。在实施音位规则约束时,我们提出了一种基于音位结 构树的子算法。训练样本和测试样本的切分正确率分别为99. 13%和98. 55%。  相似文献   

9.
一种利用声音特性快速切分英文单词音节的算法   总被引:1,自引:0,他引:1  
从提高单词层的语音识别精度到提供个性化的发音训练,音节切分都有着广泛的应用领域。该文提出了一个利用声音特性对英文单词进行快速音节切分的算法。该方法首先通过对能量和过零率参数的分析,划出粗略的音节边界,然后检测峰值点/谷值点的基音周期参数来做修定。实验结果显示,该算法在速度和精度两方面都有着良好的性能。  相似文献   

10.
基于贝叶斯方法的鲁棒语音切分   总被引:1,自引:0,他引:1  
在基于隐马尔科夫模型的语音切分基础上,融合了不受噪声干扰的先验切分模型,提出了基于贝叶斯方法的语间切分方法。在贝叶斯切分方法的框架内,作者首先对语音序列进行了变换,将由切分点构成的序列变为由音节长度构成的序列。然后,假设音节长度序列符合一阶马尔科夫过程,经过归一化处理后,求出了切分的先验概率公式,得到了贝叶斯方法的切分模型。在噪声环境下的实验证明,由于切分模型独立于噪声,对在噪声环境下声学模型的失配提供了很好的补偿,使得语音切分的鲁棒性大大增加。  相似文献   

11.
基于语音识别的汉语发音自动评分系统的设计与实现   总被引:6,自引:0,他引:6  
语音识别技术的发展使得人与计算机的交互成为可能,针对目前对外汉语中发音教学的不足,在结合了语音识别的相关原理,提出了在对外汉语教学领域中汉语自动发音水平评价系统的设计,详细地描述了系统的结构、功能及流程.介绍了系统实现中的关键技术和步骤:动态时间弯折算法、语料库的建立、声韵分割技术以及评价分级标准.通过小范围的试验,表明该系统对留学生汉语发音水平的测试有一定的参考价值.  相似文献   

12.
字标注分词方法是当前中文分词领域中一种较为有效的分词方法,但由于中文汉字本身带有语义信息,不同字在不同语境中其含义与作用不同,导致每个字的构词规律存在差异。针对这一问题,提出了一种基于字簇的多模型中文分词方法,首先对每个字进行建模,然后对学习出的模型参数进行聚类分析形成字簇,最后基于字簇重新训练模型参数。实验结果表明,该方法能够有效地发现具有相同或相近构词规律的字簇,很好地区别了同类特征对不同字的作用程度。  相似文献   

13.
当前主流的中文分词方法是基于字标注的传统机器学习的方法。但传统机器学习方法需要人为地从中文文本中配置并提取特征,存在词库维度高且仅利用CPU训练模型时间长的缺点。针对以上问题,进行了研究提出基于LSTM(Long Short-Term Memory)网络模型的改进方法,采用不同词位标注集并加入预先训练的字嵌入向量(character embedding)进行中文分词。在中文分词评测常用的语料上进行实验对比,结果表明:基于LSTM网络模型的方法能得到比当前传统机器学习方法更好的性能;采用六词位标注并加入预先训练的字嵌入向量能够取得相对最好的分词性能;而且利用GPU可以大大缩短深度神经网络模型的训练时间;LSTM网络模型的方法也更容易推广并应用到其他自然语言处理(NLP)中序列标注的任务。  相似文献   

14.
首先说明了分词在中文信息处理中的作用,然后介绍了分词系统中的关键技术。提出了一种基于有向图的中文分词算法,该算法首先构造中文分词有向图,然后计算中文分词有向图中所有可能的切分路径,最后利用了最少分词原则、汉字之间的互信息和词语的频率等信息给中文分词有向图中的每条切分路径打分,分数最高的路径就对应正确的切分结果。开放测试结果表明分词精确率可达90%以上。  相似文献   

15.
基于分段重叠的时间配准方法   总被引:1,自引:0,他引:1  
通过分析时间误差在组合导航系统速度估计和位置估计中的作用机理,导航系统中的时间误差不容忽视(尤其在机动条件下)。针对现有时间配准算法只能在特定条件下使用而无法有效解决多传感器导航系统中时间配准的不足,提出基于分段重叠的时间配准算法,通过分段处理使不同传感器的量测信息统一到同一处理时刻,通过重叠分段区,提高采样率,提高量测精度。仿真实验表明:新算法有效抑制了不规律的时间误差,保持了系统的精度和平稳性。  相似文献   

16.
构造了两个单流单音素的动态贝叶斯网络(DBN)模型,以实现基于音频和视频特征的连续语音识别,并在描述词和对应音素具体关系的基础上,实现对音素的时间切分。实验结果表明,在基于音频特征的识别率方面:在低信噪比(0~15dB)时,DBN模型的识别率比HMM模型平均高12.79%;而纯净语音下,基于DBN模型的音素时间切分结果和三音素HMM模型的切分结果很接近。对基于视频特征的语音识别,DBN模型的识别率比HMM识别率高2.47%。实验最后还分析了音视频数据音素时间切分的异步关系,为基于多流DBN模型的音视频连续语音识别和确定音频和视频的异步关系奠定了基础。  相似文献   

17.
基于元音检测的汉语连续语音声韵母分割   总被引:2,自引:1,他引:1       下载免费PDF全文
在基于声韵母的汉语连续语音识别中,声韵母基元的准确分割是非常重要的一步。当前的声韵母分割方法在非连续语音中分割准确度较高,但在连续语音中准确度大幅度降低。利用熵与汉语元音的共振峰能量设计了一种新的分割方法,并引入重叠分割策略,完整地分割出汉语连续语音中的声韵母基元。实验结果表明,这种分割方法在低信噪比下也有很高的分割正确率。  相似文献   

18.
针对现有的基于深度学习的神经网络模型通常都是对单一的语料库进行训练学习,提出了一种大规模的多语料库联合学习的中文分词方法。语料库分别为简体中文数据集(PKU、MSRA、CTB6)和繁体中文数据集(CITYU、AS),每一个数据集输入语句的句首和句尾分别添加一对标志符。应用BLSTM(双向长短时记忆模型)和CRF(条件随机场模型)对数据集进行单独训练和多语料库共同训练的实验,结果表明大规模的多语料库共同学习训练能取得良好的分词效果。  相似文献   

19.
针对在噪声背景下连续语音信号的语音分割性能会明显下降的问题,提出了一种针对连续语音信号分割的新方法。该方法不再采用单一的端点检测方法,而是将基于分形维数的端点检测方法,基于倒谱特征的端点检测方法,基于HMM的端点检测方法等多种不同方法下得到的端点检测结果,通过投票选择的方式,得到最终的端点检测结果,从而达到对连续语音信号进行分割的目的。实验结果表明,该方法较明显地提高了语音分割的准确性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号