共查询到15条相似文献,搜索用时 62 毫秒
1.
2.
基于二维高斯混合模型的驾驶行为分析 总被引:1,自引:0,他引:1
主要介绍目前模式识别中比较常见的一种算法:二维高斯混合模型算法在驾驶行为分析方面的应用。建立的关于方向盘转角和车偏离中心线距离这两个量的二维高斯混合模型,并且将模型的等高线图与原始数据分布图进行比较,可以看出建立的模型分布符合原始数据的分布。计算正常状态和疲劳状态下的似然函数值的分布,综合以上各种结果的比较,可知二维高斯混合模型具有较高的识别率。 相似文献
3.
针对递归图只能对信号进行定性分析,不利于其深入应用的缺点,应用递归定量分析方法对各种故障模式振动信号进行定量分析.采用确定率和层流率组成齿轮故障识别的特征向量,并结合高斯混合模型实现齿轮故障模式识别.以齿轮故障实验台上所测取的实验数据为对象,分别采用Re-substitution检验法,Jackknife检验法和Independent dataset检验法对提出的方法和RBF人工神经网络分类算法进行检验.结果表明,递归定量分析与高斯混合模型相结合应用于齿轮故障模式识别具有更高的识别率. 相似文献
4.
提出了基于混合高斯输出贝叶斯信念网络模型的设备退化状态识别与剩余使用寿命预测新方法,将变量消元和期望最大化算法相结合对模型进行推理,应用聚类评价指标对状态数进行优化,通过计算待识别特征向量的概率值来确定设备当前的退化状态,在退化状态识别的基础上,提出了剩余使用寿命预测方法。最后,分别应用50组轴承全寿命仿真数据和3组轴承全寿命实验数据对模型进行验证。结果表明,该模型可有效地识别设备的退化状态并对剩余使用寿命进行预测。 相似文献
5.
6.
7.
提出了一种在高斯混合模型中嵌入时延神经网络的方法。它集成了作为判别性方法的时延神经网络和作为生成性方法的高斯混合模型各自的优点。时延神经网络挖掘了特征向量集的时间信息,并且通过时延网络的变换使需要假设变量独立的最大似然概率(ML)方法更为合理。以最大似然概率为准则,把它们作为一个整体来进行训练。训练过程中,高斯混合模型和神经网络的参数交替更新。实验结果表明,采用所提出的模型在各种信噪比情况下的识别率都比基线系统有所提高,最高能达到21%。 相似文献
8.
9.
声道谱转换是语音转换中的关键技术。目前,大多数语音转换方法对声道谱的转换都是先提取语音中的某一种声道特征参数,然后对其进行训练转换,进而合成转换语音。由于不同的声道特征参数表征着不同的物理和声学意义,因此这些方法通常忽略了不同声道特征参数之间可能存在的互补性。针对这一问题,研究了不同声道特征参数之间进行联合建模的方法,引入了一种由线性预测系数(LinearPredictionCoefficient,LPC)和梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficient, MFCC)联合构成的LPC-MFCC特征参数,提出了一种基于高斯混合模型(Gaussian Mixture Model, GMM)和LPC-MFCC联合特征参数的语音转换方法。为验证文中方法的有效性,仿真实验选取了基于GMM和LPC的语音转换方法进行对比,对多组实验数据进行主观和客观测试,结果表明,文中提出的语音转换方法可以获得相似度更高的转换语音。 相似文献
10.
11.
12.
13.
《中国计量学院学报》2016,(2):216-222
为了有效地获取步态连续性的动态特征,快速准确地进行身份识别.特提出了一个基于步态能量图(Gait Energy Image,GEI)和核Fisher判别分析(Kernel-based Fisher Discrimination Analysis,KFDA)的分类识别算法.算法首先以步态能量图(GEI)按列向量作为输入,求得最优子空间W_(opt)和α_(opt).利用提取步态能量图(GEI)的步态信息向量计算在α_(opt)上的投影,并计算其投影轨迹.在分类阶段,采用最近邻分类器(Nearest neighbor classifier).最终在中科院自动化研究所CASIA B步态数据库上进行实验,对比多项式、高斯径向基核函数和其他四种算法的结果显示,本文算法取得了较高的识别率. 相似文献
14.
15.
Machine analysis of facial emotion recognition is a challenging and an innovative research topic in human–computer interaction. Though a face displays different facial expressions, which can be immediately recognized by human eyes, it is very hard for a computer to extract and use the information content from these expressions. This paper proposes an approach for emotion recognition based on facial components. The local features are extracted in each frame using Gabor wavelets with selected scales and orientations. These features are passed on to an ensemble classifier for detecting the location of face region. From the signature of each pixel on the face, the eye and the mouth regions are detected using the ensemble classifier. The eye and the mouth features are extracted using normalized semi-local binary patterns. The multiclass Adaboost algorithm is used to select and classify these discriminative features for recognizing the emotion of the face. The developed methods are deployed on the RML, CK and CMU-MIT databases, and they exhibit significant performance improvement owing to their novel features when compared with the existing techniques. 相似文献