首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
为有效利用语音情感词局部特征,提出了一种融合情感词局部特征与语音语句全局特征的语音情感识别方法。该方法依赖于语音情感词典的声学特征库,提取出语音语句中是否包含情感词及情感词密度等局部特征,并与全局声学特征进行融合,再通过机器学习算法建模和识别语音情感。对比实验结果表明,融合语音情感词局部特征与全局特征的语音情感识别方法能取得更好的效果,局部特征的引入能有效提高语音情感识别准确率。  相似文献   

2.
为了提高人脸识别效率,提出了一种基于PCA、LDA和SVM算法融合的人脸识别方法。使用主成分分析(PCA)将人脸图像变换到新的特征空间中,消除图像特征间的相关性和噪声,提取人脸全局特征,在实验阶段取较多的投影方向使其尽可能多的保持原始信息;使用线性判别分析(LDA)算法进一步投影变换降低数据维度;使用支持向量机(SVM)分类识别。将PCA、LDA和SVM三种算法的优点结合起来,在ORL数据库上进行仿真实验,结果表明该方法的识别率可达99.0%。  相似文献   

3.
针对现有表征情感信息的脑电信号的非线性特征提取不完善的问题,将相空间重构技术引入情感脑电的识别中,提取了在相空间重构下基于轨迹的描述轮廓的三种非线性几何特征作为新的情感脑电特征。结合脑电信号的功率谱熵以及非线性属性特征(近似熵、最大Lyapunov指数、Hurst指数),提出了基于主成分分析(PCA)的非线性全局特征(非线性几何特征+非线性属性特征)和功率谱熵的融合算法,以支持向量机(SVM)为分类器进行情感识别。结果显示,非线性全局特征能更有效地实现情感识别,二分类情感识别率约90%左右。基于PCA的融合情感特征相比单一特征能达到更佳的情感识别性能,四分类实验中平均识别率可达86.42%。结果表明,非线性全局特征相比非线性属性特征情感识别率有所提高,非线性全局特征以及功率谱熵的结合可以构造出更佳的情感脑电特征参数。  相似文献   

4.
基于流形学习的局部保持PCA算法在故障检测中的应用   总被引:1,自引:0,他引:1  
提出一种新的基于流形学习的数据降维及特征提取方法:局部保持 PCA 算法(LPPCA).通过在 PCA 的优化目标中融入流形学习的思想,不仅使投影得到的低维空间和原始样本空间具有相似的全局结构,并且保持了相似的局部近邻结构,克服了传统 PCA 方法只关注全局结构特征而忽略局部流形特征的缺陷,同时给出了 LPPCA 在故障检测中的应用方法. S-Curve 和 Swiss-roll 曲面数值仿真和 TE 过程仿真验证了算法的有效性和优越性.  相似文献   

5.
为克服由传统语音情感识别模型的缺陷导致的识别正确率不高的问题,将过程神经元网络引入到语音情感识别中来。通过提取基频、振幅、音质特征参数作为语音情感特征参数,利用小波分析去噪,主成分分析(PCA)消除冗余,用过程神经元网络对生气、高兴、悲伤和惊奇四种情感进行识别。实验结果表明,与传统的识别模型相比,使用过程神经元网络具有较好的识别效果。  相似文献   

6.
针对汉语语音情感识别问题,提出了一种基于脉冲耦合神经网络(PCNN)的识别方法。该方法将语音转化为语谱图后输入到PCNN,得到输出图像的神经元点火序列及其熵序列作为语音情感的特征,利用其特征实现语音情感识别。实验结果表明,该方法可以有效地识别“高兴”与“平常”这两种不同的情感。该方法将PCNN引入到语音情感识别的应用研究中,开拓了语音和图像信号结合处理的新领域,同时对于PCNN的理论研究和实际应用具有重要的现实意义。  相似文献   

7.
主成分分析方法(PCA)和局部二元模式算子(LBP)相融合的特征提取方法结合了PCA在提取全局特征方面的优势和LBP在提取局部纹理细节方面的优势,能够从人脸图像中提取出较好的用于支持向量机(SVM)进行人脸性别识别分类的特征。在提取图像的LBP特征时,对传统的LBP方法做了改进,采用级联的方法提取图像的LBP直方图特征。并将提取出来的LBP特征与PCA特征相结合用于SVM,实验结果表明,LBP和PCA相融合的特征较单独的PCA特征和LBP特征在性别识别上具有明显的优势。  相似文献   

8.
针对传统核局部保持投影方法存在不能全面地提取数据特征和故障检测率低的局限性,提出一种基于改进核局部保持投影(MKLPP)的故障检测方法。将核主元分析方法融入到核局部保持投影中,使得到的数据特征不仅包括原始数据的局部信息,而且包含数据的全局信息;引入特征向量缩放,使得低维数据变化波动更加稳定,提高故障检测率。针对MKLPP方法对微小故障不敏感的问题,将多元指数加权移动平均(MEWMA)运用到MKLPP中,提出一种MEWMA-MKLPP故障检测方法。对上述两种方法分别构造T2和SPE统计量进行故障检测。采用TE过程数据进行仿真实验,实验结果表明所提方法可以取得较好的检测效果。  相似文献   

9.
针对主元分析(Principal component analysis,PCA)和局部保持投影(Locality preserving projections,LPP)方法在降维过程中分别只能保留数据集的整体信息和局部信息,提出一种基于局部整体结构保持投影的贝叶斯故障检测与辨识方法(Local and global structure preserving projections and bayes,LGSPP-Bayes);首先,将正常工况操作下的原始数据通过局部整体结构保持投影方法投影到低维特征空间,得到高维到低维的数据转换矩阵;然后通过设计贝叶斯分类器来进行故障检测;最后当检测到故障后通过计算贝叶斯分类函数的大小来识别故障种类;将LGSPP-Bayes方法应用于TE过程,仿真结果表明对故障的检测优于其他方法,并且可以很好地将故障种类识别出来。  相似文献   

10.
利用局部特征的子空间车辆识别算法   总被引:2,自引:0,他引:2       下载免费PDF全文
利用改进的主成分分析(Principal Component Analysis,PCA)方法,通过研究不同的车辆特征(如全局特征、各种局部特征)对静态图像车辆识别效果的影响,提出了一种新的静态图像车辆识别算法。该算法可有效降低光照和背景噪声对识别的影响,实现对存在部分遮挡的车辆检测。实验结果表明,该算法具有良好的鲁棒性和车辆识别率。  相似文献   

11.
Recently, in a task of face recognition, some researchers presented that independent component analysis (ICA) Architecture I involves a vertically centered principal component analysis (PCA) process (PCA I) and ICA Architecture II involves a whitened horizontally centered PCA process (PCA II). They also concluded that the performance of ICA strongly depends on its involved PCA process. This means that the computationally expensive ICA projection is unnecessary for further process and involved PCA process of ICA, whether PCA I or II, can be used directly for face recognition. But these approaches only consider the global information of face images. Some local information may be ignored. Therefore, in this paper, the sub-pattern technique was combined with PCA I and PCA II, respectively, for face recognition. In other words, two new different sub-pattern based whitened PCA approaches (which are called Sp-PCA I and Sp-PCA II, respectively) were performed and compared with PCA I, PCA II, PCA, and sub-pattern based PCA (SpPCA). Then, we find that sub-pattern technique is useful to PCA I but not to PCA II and PCA. Simultaneously, we also discussed what causes this result in this paper. At last, by simultaneously considering global and local information of face images, we developed a novel hybrid approach which combines PCA II and Sp-PCA I for face recognition. The experimental results reveal that the proposed novel hybrid approach has better recognition performance than that obtained using other traditional methods.  相似文献   

12.
会话情绪识别包括说话者自身情绪影响以及说话者之间情绪影响这2个重要因素,为了充分考虑上述影响因素以提高会话情绪识别效果,提出一种基于层次化关系图卷积神经网络(HRGCN)的识别方法。使用一个基础神经网络对会话序列的特征数据进行优化,按照不同的说话者划分出2个不同的会话子序列,采用2个局部关系图卷积神经网络(R-GCN)分别对2个子序列进行局部建模,按照会话发生的时间顺序重新整合局部建模后的2个子序列,并利用全局R-GCN对其进行全局建模。通过对输入的多模态特征数据的分层次建模,使得会话序列捕获到更多的上下文信息。在IEMOCAP数据集上的实验结果表明,与当前流行的循环神经网络LSTM、GRU等相比,HRGCN方法的会话情绪识别性能较高,准确率与F1值分别达到84.48%与84.40%。  相似文献   

13.
Recent years have witnessed the great progress for speech emotion recognition using deep convolutional neural networks (DCNNs). In order to improve the performance of speech emotion recognition, a novel feature fusion method is proposed. With going deeper of the convolutional layers, the convolutional feature of traditional DCNNs gradually become more abstract, which may not be the best feature for speech emotion recognition. On the other hand, the shallow feature includes only global information without the detailed information extracted by deeper convolutional layers. According to these observations, we design a deep and shallow feature fusion convolutional network, which combines the feature from different levels of network for speech emotion recognition. The proposed network allows us to fully exploit deep and shallow feature. The popular Berlin data set is used in our experiments, the experimental results show that our proposed network can further improve speech emotion recognition rate which demonstrates the effectiveness of the proposed network.  相似文献   

14.
子模式典型相关分析及其在人脸识别中的应用   总被引:3,自引:1,他引:3  
传统的典型相关分析 (CCA) 是有效的特征提取方法之一, 已广泛应用于包括人脸识别在内的模式识别的许多领域. 但在人脸识别为代表的高维小样本问题上该方法存在如下不足: 1) 人脸识别的小样本特性使 CCA 两组特征矢量构成的总体协方差矩阵奇异, 难以直接应用; 2) 作为一种全局线性投影方法, 不足以很好地描述非线性的人脸识别问题; 3) 缺乏对局部变化的识别鲁棒性. 本文受已提出的子模式主分量分析 (SpPCA) 的启发, 提出了子模式典型相关分析 (SpCCA). 该方法将局部与全局特征矢量之间的相关性特征作为有效的判别信息, 既达到了融合局部与全局信息的目的, 又消除了特征之间的信息冗余. 通过子模式的划分, SpCCA 避免了小样本问题, 更好地描述了非线性的人脸识别问题; 并通过投票方式融合结果, 增强了对局部变化的鲁棒性. 在 AR 与 Yale 两个人脸数据集上的实验证实了该方法比对比方法不仅有更优的识别性能, 而且更加稳定和鲁棒.  相似文献   

15.
In this paper, global and local prosodic features extracted from sentence, word and syllables are proposed for speech emotion or affect recognition. In this work, duration, pitch, and energy values are used to represent the prosodic information, for recognizing the emotions from speech. Global prosodic features represent the gross statistics such as mean, minimum, maximum, standard deviation, and slope of the prosodic contours. Local prosodic features represent the temporal dynamics in the prosody. In this work, global and local prosodic features are analyzed separately and in combination at different levels for the recognition of emotions. In this study, we have also explored the words and syllables at different positions (initial, middle, and final) separately, to analyze their contribution towards the recognition of emotions. In this paper, all the studies are carried out using simulated Telugu emotion speech corpus (IITKGP-SESC). These results are compared with the results of internationally known Berlin emotion speech corpus (Emo-DB). Support vector machines are used to develop the emotion recognition models. The results indicate that, the recognition performance using local prosodic features is better compared to the performance of global prosodic features. Words in the final position of the sentences, syllables in the final position of the words exhibit more emotion discriminative information compared to the words and syllables present in the other positions.  相似文献   

16.
针对单一语音特征对语音情感表达不完整的问题,将具有良好量化和插值特性的LSF参数与体现人耳听觉特性的MFCC参数相融合,提出基于线谱权重的MFCC(WMFCC)新特征。同时,通过高斯混合模型来对该参数建立模型空间,进一步得到GW-MFCC模型空间参数,以获取更高维的细节信息,进一步提高情感识别性能。采用柏林情感语料库进行验证,新参数的识别率比传统的MFCC和LSF分别有5.7%和6.9%的提高。实验结果表明,提出的WMFCC以及GW-MFCC参数可以有效地表现语音情感信息,提高语音情感识别率。  相似文献   

17.
为了更好地表征语音情感状态,将固有时间尺度分解(ITD)用于语音情感特征提取。从语音信号中得到前若干阶合理旋转(PR)分量,并提取PR分量的瞬时参数特征和关联维数,以此作为新的情感特征参数,结合传统特征使用支持向量机(SVM)进行语音情感识别实验。实验结果显示,引入PR特征参数后,与传统特征的方案相比,情感识别率有了明显提高。  相似文献   

18.
正确识别语音中包含的情感信息可以大幅提高人机交互的效率.目前,语音情感识别系统主要由语音特征抽取和语音特征分类两步组成.为了提高语音情感识别准确率,选用语谱图而非传统声学特征作为模型输入,采用基于attention机制的CGRU网络提取语谱图中包含的频域信息和时域信息.实验结果表明:在模型中引入注意力机制有利于减少冗余信息的干扰,并且相较于基于LSTM网络的模型,采用GRU网络的模型预测精确度更高,且在训练时收敛更快,与基于LSTM的基线模型相比,基于GRU网络的模型训练时长只有前者的60%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号