首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 62 毫秒
1.
四分位偏差分形维及其在齿轮故障识别中的应用   总被引:2,自引:0,他引:2  
肖涵  李友荣  吕勇 《振动与冲击》2006,25(6):108-110
介绍了用于非平稳、非线性信号的四分位偏差分形维算法,并通过仿真实例验证了此计算方法的准确性。针对齿轮振动信号的非平稳、非高斯、非线性特点,将四分位偏差分形维用于齿轮故障分类,结果表明此方法能很好地区分齿轮故障模式。以四分位偏差与相应的截距为特征量进行聚类,能更好地区分齿轮的各种故障模式。可将其用于在线故障识别。  相似文献   

2.
基于二维高斯混合模型的驾驶行为分析   总被引:1,自引:0,他引:1  
马超  张政石 《硅谷》2011,(5):15-16
主要介绍目前模式识别中比较常见的一种算法:二维高斯混合模型算法在驾驶行为分析方面的应用。建立的关于方向盘转角和车偏离中心线距离这两个量的二维高斯混合模型,并且将模型的等高线图与原始数据分布图进行比较,可以看出建立的模型分布符合原始数据的分布。计算正常状态和疲劳状态下的似然函数值的分布,综合以上各种结果的比较,可知二维高斯混合模型具有较高的识别率。  相似文献   

3.
针对递归图只能对信号进行定性分析,不利于其深入应用的缺点,应用递归定量分析方法对各种故障模式振动信号进行定量分析.采用确定率和层流率组成齿轮故障识别的特征向量,并结合高斯混合模型实现齿轮故障模式识别.以齿轮故障实验台上所测取的实验数据为对象,分别采用Re-substitution检验法,Jackknife检验法和Independent dataset检验法对提出的方法和RBF人工神经网络分类算法进行检验.结果表明,递归定量分析与高斯混合模型相结合应用于齿轮故障模式识别具有更高的识别率.  相似文献   

4.
提出了基于混合高斯输出贝叶斯信念网络模型的设备退化状态识别与剩余使用寿命预测新方法,将变量消元和期望最大化算法相结合对模型进行推理,应用聚类评价指标对状态数进行优化,通过计算待识别特征向量的概率值来确定设备当前的退化状态,在退化状态识别的基础上,提出了剩余使用寿命预测方法。最后,分别应用50组轴承全寿命仿真数据和3组轴承全寿命实验数据对模型进行验证。结果表明,该模型可有效地识别设备的退化状态并对剩余使用寿命进行预测。  相似文献   

5.
针对固定场景监控中复杂背景、光照变化、阴影等影响视频分割的问题,提出了一种有效的混合高斯模型的自适应背景更新算法,各像素点根据其像素值出现的混乱程度采取不同个数的高斯分布描述,通过对背景模型的学习与更新、高斯分布生成准则等方面的改进和优化,采用基于形态学重构的阴影消除方法使得前景目标分割的性能得到了有效地提高.文中同时给出了光照突变检测及其背景更新方法.通过对各种实际场景的实验仿真表明,该算法能够快速准确地建立背景模型,准确分割前景目标,与其它算法比较具有更强的鲁棒性.  相似文献   

6.
基于高斯混合模型的语音转换方法是语音转换中比较成功的方法之一,但基于高斯混合模型的转换方法训练过程复杂,训练时间长,需要大量的训练语音,这些都影响了它的实用性。对于传统高斯混合模型训练中的问题进行了分析研究,提出了训练过程中一个改进的方法(即二次训练法),实验分析证明这个方法能有效提高模型训练速度,改善转换系统性能。  相似文献   

7.
陈存宝  赵力 《声学技术》2010,29(3):292-296
提出了一种在高斯混合模型中嵌入时延神经网络的方法。它集成了作为判别性方法的时延神经网络和作为生成性方法的高斯混合模型各自的优点。时延神经网络挖掘了特征向量集的时间信息,并且通过时延网络的变换使需要假设变量独立的最大似然概率(ML)方法更为合理。以最大似然概率为准则,把它们作为一个整体来进行训练。训练过程中,高斯混合模型和神经网络的参数交替更新。实验结果表明,采用所提出的模型在各种信噪比情况下的识别率都比基线系统有所提高,最高能达到21%。  相似文献   

8.
为提高心音信号特征提取的准确性及分类识别的高效性,将小波包变换的Mel频率倒谱系数与改进的高斯混合模型结合用于心音信号分类识别。在Mel频率倒谱系数提取方法基础上,用小波包变换代替傅里叶变换与Mel滤波器组,获得新特征参数DWPTMFCC;针对传统GMM参数初始化K-means算法缺点,用加权可选择模糊C均值算法进行改进;将提取的特征参数分别输入到改进后GMM进行分类识别。对临床采集的心音数据测试结果表明,该方法能有效提取心音特征,优于传统GMM识别性能。  相似文献   

9.
曾歆  张雄伟  孙蒙  苗晓孔  姚琨 《声学技术》2020,39(4):451-455
声道谱转换是语音转换中的关键技术。目前,大多数语音转换方法对声道谱的转换都是先提取语音中的某一种声道特征参数,然后对其进行训练转换,进而合成转换语音。由于不同的声道特征参数表征着不同的物理和声学意义,因此这些方法通常忽略了不同声道特征参数之间可能存在的互补性。针对这一问题,研究了不同声道特征参数之间进行联合建模的方法,引入了一种由线性预测系数(LinearPredictionCoefficient,LPC)和梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficient, MFCC)联合构成的LPC-MFCC特征参数,提出了一种基于高斯混合模型(Gaussian Mixture Model, GMM)和LPC-MFCC联合特征参数的语音转换方法。为验证文中方法的有效性,仿真实验选取了基于GMM和LPC的语音转换方法进行对比,对多组实验数据进行主观和客观测试,结果表明,文中提出的语音转换方法可以获得相似度更高的转换语音。  相似文献   

10.
提出一种基于独立分量分析的混叠振动目标盲分离和混合高斯模型识别相结合的混合模型振动识别方法。建立已知振动目标的GMM,然后实现混叠振动目标自适应盲源分离,提取了振动目标的线性预测系数作为目标识别的参数,产生了训练和识别所用的特征向量。识别阶段,通过解码判断振动目标的类别。仿真结果表明:新的混合模型识别系统在混叠振动目标识别中具有可行性。  相似文献   

11.
针对大型风电机组运行工况多变、数据量大的特点,提出一种将高斯混合模型(GMM)与深度自编码网络(DAE)相结合的风电机组齿轮箱状态监测方法.首先,基于GMM对风电机组运行工况进行辨识;然后,在各个子工况空间下,基于DAE建立正常运行状态下的齿轮箱油池温度模型,得到多工况阈值;最后,对DAE模型的重构误差进行分析,结合多...  相似文献   

12.
沈忱  章明  赵力  邹采荣 《声学技术》2005,24(Z1):121-122
1前言 对于与文本无关的说话人识别,一般采用混合高斯模型(Gaussian Mixture Model:GMM)[1,2]来进行识别,在训练GMM模型之前,模型的初始参数必须首先确定.初始化模型参数的有效方法是对训练数据进行分段,训练数据语音帧根据其特征分到M个不同的类中(M为混合数的个数),与初始的M个高斯分量相对应.每个类的均值和方差作为模型的初始化参数.  相似文献   

13.
为了有效地获取步态连续性的动态特征,快速准确地进行身份识别.特提出了一个基于步态能量图(Gait Energy Image,GEI)和核Fisher判别分析(Kernel-based Fisher Discrimination Analysis,KFDA)的分类识别算法.算法首先以步态能量图(GEI)按列向量作为输入,求得最优子空间W_(opt)和α_(opt).利用提取步态能量图(GEI)的步态信息向量计算在α_(opt)上的投影,并计算其投影轨迹.在分类阶段,采用最近邻分类器(Nearest neighbor classifier).最终在中科院自动化研究所CASIA B步态数据库上进行实验,对比多项式、高斯径向基核函数和其他四种算法的结果显示,本文算法取得了较高的识别率.  相似文献   

14.
将Mel频率倒谱作为特征参数,实现了基于连续型隐马尔可夫模型的舰船辐射噪声目标识别。对五艘不同类别舰船的辐射噪声建立模型,并进行了识别实验。模型的状态数和高斯混合数分别确定为1和3,五艘舰船的平均识别率达到91.6%。利用两艘不同类型舰船的噪声分析了舰船的工况对识别结果的影响。  相似文献   

15.
Machine analysis of facial emotion recognition is a challenging and an innovative research topic in human–computer interaction. Though a face displays different facial expressions, which can be immediately recognized by human eyes, it is very hard for a computer to extract and use the information content from these expressions. This paper proposes an approach for emotion recognition based on facial components. The local features are extracted in each frame using Gabor wavelets with selected scales and orientations. These features are passed on to an ensemble classifier for detecting the location of face region. From the signature of each pixel on the face, the eye and the mouth regions are detected using the ensemble classifier. The eye and the mouth features are extracted using normalized semi-local binary patterns. The multiclass Adaboost algorithm is used to select and classify these discriminative features for recognizing the emotion of the face. The developed methods are deployed on the RML, CK and CMU-MIT databases, and they exhibit significant performance improvement owing to their novel features when compared with the existing techniques.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号