共查询到20条相似文献,搜索用时 46 毫秒
1.
连续汉语语音识别中基于归并的音节切分自动机 总被引:4,自引:0,他引:4
文章研究并实现了汉语连续语音中的音节自动切分算法——基于归并的音节切分自动机(merging-based syllable detection automaton,简称MBSDA)算法.MBSDA算法利用了包括语音的短时能量、过零率和基音周期在内的多种特征参数,把特征参数高度相似的相邻帧(1帧或若干帧)的语音信号进行“归并(merging)”,形成“归并类似段(merged similar segment,简称MSS)”,它们被认定属于同一音节的相同状态.这些MSS经过一个包含若干状态的“音节切分自动机( 相似文献
2.
研究汉语自然语音音节切分方法具有明显现实意义,比较准确的自然语音切分方法可以代替人工对一些拥有参照文本的语音进行标注。然而至今为止并没有完全准确的汉语语音音节切分方法。依据相同发音环境下汉语语音音节时间长度服从某种高斯分布和相邻语音音节之间存在短时能量波谷两个假设,提出了基于音节时间长度高斯拟合的汉语音节切分方法。对算法进行分析,根据初步切分短时能量波谷分散到各分语音段的特性,提出了简化算法,有效降低了该音节切分方法的时间复杂度。实验结果表明,音节切分准确度(与人工标注切分时间距离平方的均值)达到小数点后3位,在台式机Matlab环境下运算时间均不超过1 s,可以达到应用要求。 相似文献
3.
4.
音节切分是整句拼音转换的基础,由于拼音的特殊性,存在歧义切分的可能.如果采用最少分词算法只能得到一种切分结果,不能保证整句拼音转换的正确性.提出一种音节切分算法,通过插入音素节点不断构造合法音节节点,进而生成状态空间,遍历算法遍历状态空间可获得所有的切分可能,而当用户进行删除操作时,只需删除部分相关节点.整个状态空间随用户的操作进行局部凋整,分布均匀.该算法有利于存在歧义切分问题的整句拼音转换,可从保留下来的所有切分可能中选出一个全局最优的语句候选,保证整句转换的正确性. 相似文献
5.
音节是泰语构词和读音的基本单位,泰语音节切分对泰语词法分析、语音合成、语音识别研究具有重要意义。结合泰语音节构成特点,提出基于条件随机场(Conditional Random Fields)的泰语音节切分方法。该方法结合泰语字母类别和字母位置定义特征,采用条件随机场对泰语句子中的字母进行序列标注,实现泰语音节切分。在InterBEST 2009泰语语料的基础上,标注了泰语音节切分语料。针对该语料的实验表明,该方法能有效利用字母类别和字母位置信息实现泰语音节切分,其准确率、召回率和F值分别达到了99.115%、99.284%和99.199%。 相似文献
6.
用于汉语语音信号端点检测与切分的有效方法 总被引:5,自引:3,他引:5
文章给出了计算机辅助汉语教学系统中语音端点信号的检测和清浊音信号的切分方法:采用短时相对能频积对汉语语音信号的端点进行检测;采用短时相对能频比的方法对语音信号的清浊音进行切分。这两种方法的使用与现有方法相比可以有效地提高汉语语音信号切分的成功率,实验结果表明正确率可达到95%以上。文中通过实验验证了所提出的汉语语音信号切分方法是有效的和可行的。它基本上能够满足计算机辅助汉语教学系统在线切分汉语语音信号的需要,比已有的语音信号切分方法的切分效果有显著提高,为下一步提高语音信号的识别率奠定了基础。 相似文献
7.
方言转换系统实现了普通话到济南话、沈阳话和西安话的实时语音转换.北方方言之间的差异主要体现在声调上,声调是属于音节的,因此声调转换模式转换是以音节为单位实施的.主要研究了方言转换系统中关键技术:连续语流音节切分算法.提出了一种基于自动机的逐级音节切分算法,分为语段切分、音节切分自动机和切分点自动校正三部分.该算法在误差48ms时,正确率达到72.55%,并成功支持了方言转换中的基频模式转换. 相似文献
8.
9.
基于贝叶斯方法的鲁棒语音切分 总被引:1,自引:0,他引:1
在基于隐马尔科夫模型的语音切分基础上,融合了不受噪声干扰的先验切分模型,提出了基于贝叶斯方法的语间切分方法。在贝叶斯切分方法的框架内,作者首先对语音序列进行了变换,将由切分点构成的序列变为由音节长度构成的序列。然后,假设音节长度序列符合一阶马尔科夫过程,经过归一化处理后,求出了切分的先验概率公式,得到了贝叶斯方法的切分模型。在噪声环境下的实验证明,由于切分模型独立于噪声,对在噪声环境下声学模型的失配提供了很好的补偿,使得语音切分的鲁棒性大大增加。 相似文献
10.
11.
12.
普通话声调的客观评测 总被引:2,自引:2,他引:0
声调在普通话中起着构词辨义的作用,声调的准确程度是决定普通话水平的重要因素。声调的客观评测是普通话水平客观评测系统的重要子系统之一。在分析普通话声调特点的基础上,提出了能消除语速影响和音节间相互影响的建模方法。选择了能反映声调特点的5个基频比值与归一化的基频共同作为声调评测参数,利用高斯混合模型对60人的实测语音数据进行了测试,结果表明:客观测试同主观测试的符合率达到88.24%。 相似文献
13.
基于对话语音的与文本无关的说话人确认系统的研究 总被引:3,自引:2,他引:1
本文建立了一个基于对话语音的与文本无关的说话人确认系统,它和传统的与文本无关的说话人确认系统的关键不同在于,训练及测试语音不再只包含一个人而都是对话语音,因此需要分割出属于不同说话人的语音段,以建立说话人模型和实现最终判决。文中详细介绍了高斯混合模型-背景模型(GMM-UBM)这种说话人确认系统的框架,重点讨论了基于GLR(Generalized Likelihood Ratio)距离测度的无监督语音分割算法。最终阐述的输出评分的规整方法即ZNORM(Zero Normalization)和持续时间修正,可以使确认系统的性能提高近10%。 相似文献
14.
中文分词是计算机自动处理文本的基础。通过比较常用的机械分词算法的优缺点,提出了分层逐字二分算法,综合了TRIE树和逐字二分分词的特点,以求通过较小的开销来实现较快的匹配速度。实验结果表明,该算法在综合性能上有显著提高。 相似文献
15.
16.
17.
面向信息处理的藏文分词规范研究 总被引:2,自引:1,他引:1
自动分词是藏文信息处理领域的一项基础课题,也是智能化藏文信息处理的关键所在。 在藏文信息处理“字词处理”层面上,需要解决词的切分问题,而词类划分的标准和词的正确切分是进行藏文文本处理的必要条件。为了便于计算机对自动分词、词性标注的辨认,该文首先要确定满足藏文信息处理中词类的需求,并根据藏文自身的词汇特点与构词规律,提出了较为系统、适用的分词规范。 相似文献
18.
分词单位作为分词系统的基本单位,是研究分词理论的基础,要确立分词单位就必须有相应的理论体系。该文结合藏文已有的语法著作和汉语语义分类体系建立与分词单位相应的词类划分体系;参照《资讯处理用中文分词规范》和《信息处理用现代汉语分词规范》等标准,从藏文文本语料出发,建立切分分词单位的九项基本原则和三项辅助原则,以此词类划分体系和切分原则为理论依据对藏文的分词单位进行详细说明。 相似文献
19.