共查询到17条相似文献,搜索用时 71 毫秒
1.
2.
一种面向语音识别的新型神经网络 总被引:1,自引:0,他引:1
提出了一种新型神经网络模型,描述了该网络的工作原理和训练方法以及识别算法。为克服神经网络对时序信号建模能力差的缺点,引入了非线性分段处理和代表帧特征提取方法。最后介绍了根据这一模型所设计的一个汉语语音识别系统,试验表明该网络在汉语语音识别方面具有较大的潜力。 相似文献
3.
本文论述了基于神经网络模型的非特定人汉语语音识别。我们采用24人(12人用于训练,12人用于测试)的语音数据对汉语十个数字和十个孤立字进行了实验,取得了96.3%(10个数字)和97.2%(十个汉字)的识别率。 相似文献
4.
5.
为解决深度学习模型在语音识别芯片上内存占用过大的问题,训练时间长,训练深度不够等问题,本文在Transformer语音识别模型的基础上,提出一种减少Transformer计算复杂度的模型,新的模型参数仅有原模型的1/10,模型训练速度大大提升。此外本文在对模型进行参数调整的过程中还对Transformer模型结构中add&norm这一结构结合残差神经网络进行修改,针对模型在训练过程中因为模型深度太深(容易产生梯度消失和梯度爆炸)导致的模型收敛速度过慢或者模型不收敛等问题,在保证词错率下降的同时,加快模型的收敛速度和训练速度,修改结构之后的模型在词错率上相比原有模型词错率更低,并且收敛速度也比未修改结构的模型收敛速度更快。 相似文献
6.
7.
语音识别中的神经网络DTW结构 总被引:1,自引:0,他引:1
本文介绍语音识别中一种基于动态规划技术的时间规正算法DTW的神经网络实现方法.DTW是语音识别中最为有效的方法之一,它具有较强的鲁棒性且为语音识别系统提供了可能的最高识别率.但由于其计算量太大,除非用专门的硬件,DTW算法在实现时受到了限制.在本文中,所有的计算是由两个循环神经子网和一记忆层来完成的,该方法展示了算法的硬接线结构,(hard-wiring)的优越性,这为DTW的硬件实现提供了一种新的实施策略. 相似文献
8.
9.
本文根据加权倒变距离测度,提出了一种用于非特定人语音识别的函数链神经网络。此网络与多层感知器相比,不仅具有较高的识别别率,而且大大缩短了网络的学习时间。我们采用6人(3男,3女)的语音数据对汉语十个数字进行了实验,正确识别率为93.7%。 相似文献
10.
文章主要介绍了语音干扰评估系统,重点研究了干扰评估系统中数据拟合部分算法的性能,引入了BP神经网络作为新的数据拟合算法,使用多组语音文件,进行干扰系统评估,并对BP神经网络与最小二乘算法的拟合结果进行比较。证明BP神经网络在语音干扰评估系统中的实用性以及性能提升,该模型可以在语音干扰系统中实际应用。 相似文献
11.
12.
改进的BP网络算法在图像识别中的应用 总被引:1,自引:0,他引:1
采用增加动量因子和自适应学习速率相结合的方法,对BP神经网络算法进行改进,利用改进的BP网络算法,可以有效地抑制网络陷入局部极小值,提高网络训练速度。实验验证表明,改进的算法对图像识别的准确率较高。 相似文献
13.
为了提高数字识别的准确性和可靠性,将BP神经网络应用于数字识别,并考察了网络结构对系统实时性、识别效果的影响以及初始权值对收敛速度的影响,选取了最佳的隐层节点数和权值初始化函数,实现了基于BP神经网络的数字识别系统。利用MATLAB进行仿真实验,实验结果表明该系统能够实现对数字的有效识别。 相似文献
14.
人工神经网络的BP算法及其应用 总被引:32,自引:1,他引:32
在一般人工神经网络的BP算法的基础上,研究了BP算法所遵循的数学基础,指出其存在的缺陷和不足,并给出改进方法。探讨了MATLAB环境下实现人工神经网络BP算法的编程方法及方法改进比较的例子,得到了良好的结果。 相似文献
15.
本文首先分析了以PC机作为宿主机的半导体神经网络处理机CASSANDRA-I,进一步介绍了新的半导体神经计算机CASSANDRA-II的系统实现和功能特性,并将其应用到问候语语音识别中,实验结果表明CASSANDRA-II神经计算机识别结果优于HMM模型的识别结果. 相似文献
16.
在MATLAB中构建脱机手写文字识别系统,并利用Levenberg-Marquardt算法对标准BP神经网络的阈值和权值进行优化。经过仿真实验,证明该改进方法克服了在识别过程中BP网络存在的训练时间长、收敛速度慢等缺点,并且提高了系统的识别率,是一种有效可行的BP网络改进方法。 相似文献
17.
在基于神经网络的语音识别任务中,提出根据激励函数二阶导数优化网络预训练阶段中权值初始化的方法。利用激励函数的非线性区域和自变量呈高斯分布的特性,寻找权值分布的较优方差以提升训练速度。通过比较同一学习速率下不同初始化数值对收敛速度的影响,发现此种方法可以加快预训练阶段的速度,提升神经网络训练的效率。 相似文献