共查询到19条相似文献,搜索用时 78 毫秒
1.
本文提出了一种基于帧间相关特性的连续语音流的音节切分方法,采用反映相邻帧间LPC系数相关程度的帧间相关特性及其参数,进行连续语音流的分段切分,并通过时域参数对切分出的各个语音段进行音索性质标记,再根据汉语音节组成规则最后确定出音节切分及其边界.汉语数字串语音流的音节切分实验表明了该方法的有效性. 相似文献
2.
连续汉语语音识别中基于归并的音节切分自动机 总被引:4,自引:0,他引:4
文章研究并实现了汉语连续语音中的音节自动切分算法——基于归并的音节切分自动机(merging-based syllable detection automaton,简称MBSDA)算法.MBSDA算法利用了包括语音的短时能量、过零率和基音周期在内的多种特征参数,把特征参数高度相似的相邻帧(1帧或若干帧)的语音信号进行“归并(merging)”,形成“归并类似段(merged similar segment,简称MSS)”,它们被认定属于同一音节的相同状态.这些MSS经过一个包含若干状态的“音节切分自动机( 相似文献
3.
4.
5.
音节切分是整句拼音转换的基础,由于拼音的特殊性,存在歧义切分的可能.如果采用最少分词算法只能得到一种切分结果,不能保证整句拼音转换的正确性.提出一种音节切分算法,通过插入音素节点不断构造合法音节节点,进而生成状态空间,遍历算法遍历状态空间可获得所有的切分可能,而当用户进行删除操作时,只需删除部分相关节点.整个状态空间随用户的操作进行局部凋整,分布均匀.该算法有利于存在歧义切分问题的整句拼音转换,可从保留下来的所有切分可能中选出一个全局最优的语句候选,保证整句转换的正确性. 相似文献
6.
7.
音节是泰语构词和读音的基本单位,泰语音节切分对泰语词法分析、语音合成、语音识别研究具有重要意义。结合泰语音节构成特点,提出基于条件随机场(Conditional Random Fields)的泰语音节切分方法。该方法结合泰语字母类别和字母位置定义特征,采用条件随机场对泰语句子中的字母进行序列标注,实现泰语音节切分。在InterBEST 2009泰语语料的基础上,标注了泰语音节切分语料。针对该语料的实验表明,该方法能有效利用字母类别和字母位置信息实现泰语音节切分,其准确率、召回率和F值分别达到了99.115%、99.284%和99.199%。 相似文献
8.
9.
一种利用声音特性快速切分英文单词音节的算法 总被引:1,自引:0,他引:1
从提高单词层的语音识别精度到提供个性化的发音训练,音节切分都有着广泛的应用领域。该文提出了一个利用声音特性对英文单词进行快速音节切分的算法。该方法首先通过对能量和过零率参数的分析,划出粗略的音节边界,然后检测峰值点/谷值点的基音周期参数来做修定。实验结果显示,该算法在速度和精度两方面都有着良好的性能。 相似文献
10.
基于贝叶斯方法的鲁棒语音切分 总被引:1,自引:0,他引:1
在基于隐马尔科夫模型的语音切分基础上,融合了不受噪声干扰的先验切分模型,提出了基于贝叶斯方法的语间切分方法。在贝叶斯切分方法的框架内,作者首先对语音序列进行了变换,将由切分点构成的序列变为由音节长度构成的序列。然后,假设音节长度序列符合一阶马尔科夫过程,经过归一化处理后,求出了切分的先验概率公式,得到了贝叶斯方法的切分模型。在噪声环境下的实验证明,由于切分模型独立于噪声,对在噪声环境下声学模型的失配提供了很好的补偿,使得语音切分的鲁棒性大大增加。 相似文献
11.
基于语音识别的汉语发音自动评分系统的设计与实现 总被引:6,自引:0,他引:6
语音识别技术的发展使得人与计算机的交互成为可能,针对目前对外汉语中发音教学的不足,在结合了语音识别的相关原理,提出了在对外汉语教学领域中汉语自动发音水平评价系统的设计,详细地描述了系统的结构、功能及流程.介绍了系统实现中的关键技术和步骤:动态时间弯折算法、语料库的建立、声韵分割技术以及评价分级标准.通过小范围的试验,表明该系统对留学生汉语发音水平的测试有一定的参考价值. 相似文献
12.
13.
当前主流的中文分词方法是基于字标注的传统机器学习的方法。但传统机器学习方法需要人为地从中文文本中配置并提取特征,存在词库维度高且仅利用CPU训练模型时间长的缺点。针对以上问题,进行了研究提出基于LSTM(Long Short-Term Memory)网络模型的改进方法,采用不同词位标注集并加入预先训练的字嵌入向量(character embedding)进行中文分词。在中文分词评测常用的语料上进行实验对比,结果表明:基于LSTM网络模型的方法能得到比当前传统机器学习方法更好的性能;采用六词位标注并加入预先训练的字嵌入向量能够取得相对最好的分词性能;而且利用GPU可以大大缩短深度神经网络模型的训练时间;LSTM网络模型的方法也更容易推广并应用到其他自然语言处理(NLP)中序列标注的任务。 相似文献
14.
张培颖 《计算机工程与应用》2009,45(22):123-125
首先说明了分词在中文信息处理中的作用,然后介绍了分词系统中的关键技术。提出了一种基于有向图的中文分词算法,该算法首先构造中文分词有向图,然后计算中文分词有向图中所有可能的切分路径,最后利用了最少分词原则、汉字之间的互信息和词语的频率等信息给中文分词有向图中的每条切分路径打分,分数最高的路径就对应正确的切分结果。开放测试结果表明分词精确率可达90%以上。 相似文献
15.
16.
构造了两个单流单音素的动态贝叶斯网络(DBN)模型,以实现基于音频和视频特征的连续语音识别,并在描述词和对应音素具体关系的基础上,实现对音素的时间切分。实验结果表明,在基于音频特征的识别率方面:在低信噪比(0~15dB)时,DBN模型的识别率比HMM模型平均高12.79%;而纯净语音下,基于DBN模型的音素时间切分结果和三音素HMM模型的切分结果很接近。对基于视频特征的语音识别,DBN模型的识别率比HMM识别率高2.47%。实验最后还分析了音视频数据音素时间切分的异步关系,为基于多流DBN模型的音视频连续语音识别和确定音频和视频的异步关系奠定了基础。 相似文献
17.
在基于声韵母的汉语连续语音识别中,声韵母基元的准确分割是非常重要的一步。当前的声韵母分割方法在非连续语音中分割准确度较高,但在连续语音中准确度大幅度降低。利用熵与汉语元音的共振峰能量设计了一种新的分割方法,并引入重叠分割策略,完整地分割出汉语连续语音中的声韵母基元。实验结果表明,这种分割方法在低信噪比下也有很高的分割正确率。 相似文献
18.
19.
针对在噪声背景下连续语音信号的语音分割性能会明显下降的问题,提出了一种针对连续语音信号分割的新方法。该方法不再采用单一的端点检测方法,而是将基于分形维数的端点检测方法,基于倒谱特征的端点检测方法,基于HMM的端点检测方法等多种不同方法下得到的端点检测结果,通过投票选择的方式,得到最终的端点检测结果,从而达到对连续语音信号进行分割的目的。实验结果表明,该方法较明显地提高了语音分割的准确性。 相似文献