首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 186 毫秒
1.
提出一种基于面部径向曲线弹性匹配的三维人脸识别方法。使用人脸曲面上的多条曲线表征人脸曲面,提取三维人脸上从鼻尖点发射的多条面部径向曲线,对其进行分层弹性匹配和点距对应匹配,根据人脸不同部位受表情影响程度不同,对不同曲线识别相似度赋予不同权重进行加权融合作为总相似度用于识别。测试结果表明该方法具有很好的识别性能,并且对表情、遮挡和噪声具有较好的鲁棒性。  相似文献   

2.
基于微分演化算法(Differential Evolution,DE)提出一种新的结构参数识别方法。通过对参数识别反问题转化为一个优化问题,根据实际观测结构响应数据与数值模型系统输出之间的差异建立识别问题的目标函数。利用DE求解该目标函数的全局最小,从而得到最优参数解。DE算法是一种新颖的随机搜索进化算法,通过采取全局优化的策略确保算法得到合理的解。DE算法具有算法简单、编程计算方便、同时收敛速度快、计算结果精度高、和鲁棒性强的优点。通过数值模拟及该识别方法在真实结构参数识别中的应用验证该方法的有效性。  相似文献   

3.
本文将熵理论引入到股票投资领域,提出了适用于中国股票市场的熵风险度量方法.该方法将股票收益区间均分成若干个子区间,利用收益率落在各收益子区间中的频数度量熵风险值,并引入调节因子将初始熵风险值标准化.实证算例选取上海证券交易所股票数据对该度量方法进行检验.检验结果表明,初始熵风险值随收益子区间数目指数的增大而递增,标准化...  相似文献   

4.
基于压缩感知的数据重构方法已用于解决信号采集中受损数据的修复问题,该算法首先需要已知数据稀疏度,而振动信号的稀疏度通常难以确定,增加了数据修复的难度;稀疏度自适应匹配追踪算法(SAMP)无需预估信号稀疏度,可用于受损数据修复,但SAMP算法的修复结果受终止条件影响较大,导致修复精度不高且效率较低;为此提出了基于终止准则改进的稀疏度自适应数据修复方法。基于振动信号波形特征和先验知识,选择适当的字典矩阵实现信号稀疏化;以单位矩阵为基础,根据数据的缺失模型构造观测矩阵;为了避免传统SAMP算法终止系数选取不当,导致支撑集引入错误原子的问题,采用改进的SAMP算法重构出完整信号,实现受损数据修复。通过仿真信号及轴承实测信号验证了方法有效性,且改进的SAMP算法在重构精度和运算效率上均有所提高;此外,改进的SAMP算法重构效果优于正交匹配追踪(OMP)与正则化正交匹配追踪(ROMP)。  相似文献   

5.
电机振动信号具有非平稳、非线性特性,在进行时频域特征提取时需要人工确定时间窗口和基函数。针对该问题,提出一种基于EEMD(Ensemble Empirical Mode Decomposition)分解和权重熵变换的特征提取方法。该方法应用EEMD进行自适应分解,同时提取IMF(Intrinsic Mode Function)方差作为初始特征值,并提出将权重熵作为衡量特征值重要性的标准,通过权重熵对原始特征值进行空间变换,扩大特征向量间的差异。为验证该方法的有效性和优越性,对4 种状态下的电机转子进行振动信号采集,用于制作转子故障数据集,并运用EEMD进行特征提取。实验结果表明,基于EEMD分解和权重熵变换的特征提取方法能够更好地从振动信号中提取特征向量,在对电机进行故障诊断时具有更高的准确性。  相似文献   

6.
内积匹配准则作为一种搜索最匹配原子的方法,被广泛应用在传统压缩感知(CS)算法中。然而,由于该准则无法对相似向量进行准确度量,通常会导致最匹配原子的误判率高,无法满足更高精度的数据重构需求。针对这一问题,本文提出一种基于骰子(Dice)匹配的二次筛选选择性回溯匹配追踪(DSS-SBMP)算法,引入Dice系数匹配准则解决内积匹配准则对两向量间相似度度量不准确的问题;通过对原子进行二次筛选来减少原子所对应支撑集内的错误索引数,同时引入选择性回溯克服迭代过程中存在的回溯过度现象。仿真结果表明,DSS-SBMP算法在迭代过程中能够保留更多的正确原子,算法迭代次数小于子空间追踪(SP)算法,重构性能优于同类贪婪算法。  相似文献   

7.
滚动轴承早期故障信号特征微弱且难以提取,为了从轴承振动信号中提取特征参数用于轴承故障诊断和识别,提出基于变分模态分解(Variational Mode Decomposition,VMD)和排列熵(Permutation Entropy,PE)的信号特征提取方法,并采用支持向量机(Support Vector Machine,SVM)进行故障识别。对轴承振动信号进行变分模态分解,得到不同尺度的本征模态函数;计算各本征模态函数的排列熵,组成多尺度的复杂性度量特征向量;将高维特征向量输入基于支持向量基建立的分类器进行故障识别分类。通过滚动轴承实验数据分析了算法中参数选取问题,将该方法应用于滚动轴承实验数据,并与集合经验模态分解和小波包分解进行对比,分析结果表明,基于变分模态分解和排列熵的诊断方法有更高的诊断准确率,能够有效实现滚动轴承的故障诊断。  相似文献   

8.
步态识别作为一种核心的识别方法,其识别精度和成本直接影响该技术在相关领域的监测效率和结果,现有的关于步态分析的研究仍存在识别成本高、识别精度低等缺点,该文在已有研究的基础上提出了基于步态的行为识别方法,并基于该方法开发出一套简洁、灵活的图像数据采集系统,利用傅里叶变换、四分位差等理论降低步态特征中的维度并简化行为参数的提取步骤,并通过应用装置及模式识别试验进行验证。试验结果验证了该方法的有效性,该方法识别精度提高至98.7%,机器学习性能度量Equal Error Rate(EER)低至1.96%,在提高识别精度的同时有效提高了计算效率。  相似文献   

9.
滚动轴承早期故障信号特征微弱且难以提取,为了从轴承振动信号中提取特征参数用于轴承故障诊断和识别,提出基于变分模态分解(Variational Mode Decomposition,VMD)和排列熵(Permutation Entropy,PE)的信号特征提取方法,并采用支持向量机(Support Vector Machine,SVM)进行故障识别。对轴承振动信号进行变分模态分解,得到不同尺度的本征模态函数;计算各本征模态函数的排列熵,组成多尺度的复杂性度量特征向量;将高维特征向量输入基于支持向量基建立的分类器进行故障识别分类。通过滚动轴承实验数据分析了算法中参数选取问题,将该方法应用于滚动轴承实验数据,并与集合经验模态分解和小波包分解进行对比,分析结果表明,基于变分模态分解和排列熵的诊断方法有更高的诊断准确率,能够有效实现滚动轴承的故障诊断。  相似文献   

10.
基于熵函数的快速自动聚焦方法   总被引:3,自引:0,他引:3  
郭军  曾文涵  谢铁邦 《计量技术》2003,22(11):30-32
自动聚焦是图像自动录入系统的核心技术之一 ,长期以来一直受到国内外广泛的关注。本文介绍了针对弹头发射痕迹计算机图像比对系统的需要而研制的一种基于熵函数的快速聚焦算法 ,应用结果表明 ,该方法较好地解决了传统的基于熵函数的自动聚焦方法存在的问题 ,实现了快速、准确的聚焦要求 ,而且具有较好的鲁棒性。  相似文献   

11.
为解决轨道交通中ATS信号组播丢包问题,拟定一种基于分组差错控制的可靠组播传输协议。该协议不需要路由器的支持,在每个接收节点都定义一个申请重传权值列表,根据组播丢包情况,动态更新接收节点的权值列表,从而为接收节点选择最佳的重传请求处理节点,以提高数据重传效率。仿真实验表明:在多个分组中,将该文所提出的基于分组差错控制的可靠组播传输协议应用于轨道交通中ATS信号仿真系统中,与传统的可靠组播传输协议相比,能有效减少差错修复时延,并提高系统整体的吞吐率。  相似文献   

12.
提出了一种基于压缩感知理论的多中继协作通信系统稀疏信道估计方法.采用正交匹配追踪(Orthogonal Matching Pursuit,OMP)压缩感知算法,对时域信道脉冲响应进行估计.对多中继协作通信系统进行稀疏建模;结合压缩感知理论构建观测矩阵,并给出卷积信道的稀疏表示;利用压缩信道感知算法重建了系统的卷积复合信道.仿真结果表明,与传统的最小二乘法(Least Square,LS)相比,采用压缩感知理论的信道估计算法,能利用较少的导频信号获得很好的信道估计性能,提高了频谱利用率.  相似文献   

13.
对于正交频分复用(Orthogonal Frequency Division Multiplexing,OFDM)水声通信系统,最小二乘(Least Squares,LS)信道估计方法受噪声影响较大,并且使用的导频数量较多,影响通信效率。而基于压缩感知理论的正交匹配追踪(Orthogonal Matching Pursuit,OMP)信道估计方法可以充分利用水声信道的稀疏特性,同时能够有效地抑制系统噪声,但控制迭代运算次数的相关参数(稀疏度或误差容忍值)是OMP算法的关键条件。针对上述问题,提出了利用少量导频随机分布的LS和OMP联合的信道估计方法,该方法首先利用少量导频采用LS方法估计出OMP算法的误差容忍值,再利用OMP算法恢复数据子载波的信道信息。理论分析和仿真结果同时表明,与传统的LS算法或OMP算法相比,新算法能够在数据恢复的同时有效抑制系统噪声,应用稀疏特性及较少量的导频,进一步提高了系统的频谱效率,对时变稀疏水声信道具有更好的适应性。  相似文献   

14.
为了提高图像的重构质量和缩短重构时间,同时保持较高的压缩比,提出了一种基于混合采样的压缩感知重构算法。将图像划分为感兴趣区域和非感兴趣区域,对感兴趣区域采用恢复质量较好的正交匹配追踪算法,对非感兴趣区域采用恢复时间较短的分段正交匹配追踪算法。感兴趣区域图像中除感兴趣区域外,其他部分灰度置零以增加采样率和图像稀疏度。实验表明,该方法可以较好恢复图像感兴趣的区域,并保持较高压缩比。  相似文献   

15.
In this paper we study the problem of compute the solution of a linear system in a separable representation form. It arises in the discretized equations appearing in various physical domains, such as kinetic theory, statistical mechanics, quantum mechanics, and in nanoscience and nanotechnology among others. In particular, we use the fact that tensors of order 3 or higher have best rank-1 approximation. This fact allow to us to propose an iterative method based in the so-called by the signal processing community as the Matching Pursuit Algorithm, also known as Projection Pursuit by the statistics community or as a Pure Greedy Algorithm in the approximation theory community. We also give some numerical examples and describe its relationship with the Finite Element Method for High-Dimensional Partial Differential Equations based on the tensorial product of one-dimensional bases. We illustrate this situation taking as a model problem the multidimensional Poisson equation with homogeneous Dirichlet boundary condition.  相似文献   

16.
In many applications, the Poisson count data with varying sample sizes are monitored using statistical process control charts. Among these applications, the weighted CUSUM charts are developed to deal with the effect of the varying sample sizes. However, some of them use limited information of the sample size or the count data while assigning the weights. To gain more information of the process, the self-information weight functions are developed based on both the sample size and the observed count data. Then, the weighted CUSUM charts are proposed with the self-information-based weight. Simulation studies show the self-information-based weighted CUSUM charts perform better than the benchmark methods in detecting small shifts. Moreover, the performance of proposed method with estimated parameters is investigated via simulation. Finally, an example is given to illustrate the application of the proposed weighted CUSUM charts.  相似文献   

17.
针对叶尖定时信号因严重的非均匀采样和欠采样导致的谱分析难题,提出了基于扩展离散傅里叶变换(EDFT)的分析方法。不同于传统的傅里叶变换,EDFT是以傅里叶积分变换为目标,在扩展的频率范围内通过构造和优化变换基函数替代传统FFT变换中的指数基来实现非均匀和欠采样信号的谱分析,在分析中利用原始数据迭代和近似拟合保证了分析精度。该方法突破了奈奎斯特采样定理的限制,扩大了分析频率范围,分析谱线数也不再受限于采样点数,提高了频率分辨率。为了验证所提方法的可行性和可靠性,采用所构建的叶尖定时系统采样数学模型生成数据和试验台测试数据分别进行了方法应用分析,结果显示无论是仿真数据或试验数据,当传感器数量大于等于3时,基于该方法能够准确分析得到叶片振动的谱信号,表明该方法可以有效地解决非均匀欠采样叶尖定时信号的谱分析的难题,且具有良好的抗干扰性。  相似文献   

18.
In the past decade, compressed sensing (CS) has provided an efficient framework for signal compression and recovery as the intermediate steps in signal processing. The well-known greedy analysis algorithm, called Greedy Analysis Pursuit (GAP) has the capability of recovering the signals from a restricted number of measurements. In this article, we propose an extension to the GAP to solve the weighted optimization problem satisfying an inequality constraint based on the Lorentzian cost function to modify the EEG signal reconstruction in the presence of heavy-tailed impulsive noise. Numerical results illustrate the effectiveness of our proposed algorithm, called enhanced weighted GAP (ewGAP) to reinforce the efficiency of the signal reconstruction and provide an appropriate candidate for compressed sensing of the EEG signals. The suggested algorithm achieves promising reconstruction performance and robustness that outperforms other analysis-based approaches such as GAP, Analysis Subspace Pursuit (ASP), and Analysis Compressive Sampling Matching Pursuit (ACoSaMP).  相似文献   

19.
针对风险评估中群决策数据的处理可靠性问题,提出专家权重对于数据处理的重要性。从汽车碰撞安全研究的行业特色出发,依据专家社会因素指标,运用系统聚类和K-均值聚类分析方法,对专家进行专家权威权重聚类;依据专家提供意见的数据一致性和个体与群体一致性程度,运用基于信息熵的方法对专家进行专家意见权重聚类;将两种聚类结果进行复合聚类,得到各位专家的最终权重。结果表明,在综合专家权威权重和专家意见权重的基础上,经复合聚类得到的专家权重具有较好的均衡性和可靠性,为系统项目的研究奠定基础。  相似文献   

20.
A new moving average technique with a unique way of assigning weight has been proposed to reduce the influence of the bad/stray data points or large short term fluctuations automatically. A simple iterative technique is introduced wherein the weights of elements are dynamically optimised. This method has been compared with another proposed method which finds the average of a set of data by applying Fuzzy logic through generation of a special membership function. These two methods have been applied on some arbitrarily generated test data for establishing their validation. Finally this technique has been used to smooth the GNSS based timing data. The capabilities of smoothing data utilizing these techniques have been analyzed.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号