首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
张保强  苏国强  展铭  郭勤涛 《控制与决策》2019,34(12):2642-2648
在随机和认知混合不确定性表征的概率盒框架下,提出一种多响应模型确认度量方法.概率盒框架下的模型确认度量主要采用面积方法量化仿真与实验结果的一致程度,但传统面积度量方法并不适用于多个相关响应量的多输出确认度量问题.不确定性条件下多响应量模型确认度量问题,实质上是量化计算模型的多个响应量的联合概率分布与实验观测数据所服从的联合概率分布之间的差异程度.对此,引入马氏距离的概念对多响应量模型确认度量问题进行降维,以马氏距离作为转换的统计量,将多响应量的多指标确认度量问题转化为马氏距离的综合指标度量问题.数值仿真算例验证了所提出方法的正确性和稳定性,并将该方法应用于“2014年圣地亚验证与确认挑战问题”的研究.研究表明,基于概率盒和马氏距离的确认度量方法可以有效解决多相关响应量多输出模型确认度量问题.  相似文献   

2.
针对符号序列聚类中表示模型及序列间距离度量定义的困难问题,提出一种基于概率向量的表示模型及基于该模型的符号序列聚类算法。该模型引入符号序列的概率分布表示法,定义了一种基于概率分布差异的符号序列距离度量及该模型的目标函数,最后给出了一种符号序列K-均值型聚类算法,并在来自不同领域的实际应用序列集上进行了实验验证。实验结果表明,与基于子序列表示模型的符号序列聚类算法相比,所提方法在DNA序列和语音序列等具有较多符号的实际数据上,有效提高聚类精度的同时降低聚类时间50%以上。  相似文献   

3.
锁斌  孙东阳  曾超  张保强 《控制与决策》2020,35(8):1923-1928
模型确认试验是一种新的试验,其目的在于度量仿真模型的可信度.为了得到低成本、高可信度的模型确认试验方案,提出一种随机不确定性模型确认试验设计方法.首先,基于面积确认度量指标提出一种新的无量纲的模型确认度量指标(面积确认度量指标因子),并且在其基础上发展了基于专家系统的仿真模型准确性定性评判准则;然后,建立随机不确定性模型确认试验优化设计模型,提出该优化模型的求解方法;最后,通过两个数值算例对提出的模型确认试验设计方法进行验证.结果表明,小样本情况下,试验方案的随机性会影响模型评判结果的可信度;面积度量指标因子随试验样本数量的增加而收敛;随机不确定性模型确认试验设计方法能够避免试验方案对模型确认结果的影响.  相似文献   

4.
给出了一种基于多微商核函数(MDK)的结合高斯混合模型(GMM)和支持向量机(SVM)的方法,并应用于SVM文本无关话者确认。从GMM话者语音特征概率分布出发,用多阶微商描述GMM概率分布,将GMM和SVM结合的问题转化为用多阶微商建立SVM话者模型的问题。首先对说话人语音进行基于因子分析的参数域失配补偿,用GMM描述失配补偿后的话者语音特征的概率分布;然后对GMM求多阶微商;最后构建多微商核函数,建立多SVM话者模型。在NIST’01 2min-1min话者确认数据库上的实验表明,基于多微商核函数的SVM话者确认系统性能优于基于失配补偿的GMM系统,也比基于失配补偿的Fisher核函数SVM话者系统和基于失配补偿的Kullback-Leibler(KL)距离SVM话者系统有较大的提高。  相似文献   

5.
通过对欧氏距离度量的分析,提出了自适应距离度量.首先利用训练样本建立自适应距离度量模型,该模型保证了训练样本到相同模式类的距离最近,到不同模式类的距离最远,根据该模型建立目标函数,求解目标函数,得到最优权重.基于最小距离分类器和K近邻分类器,采用UCI标准数据库中部分数据,对提出的自适应距离度量和欧氏距离度量进行了实验比较,实验结果表明自适应距离度量更有效.  相似文献   

6.
首先分析了度量空间高维索引结构的研究意义及具体应用,然后在仔细探讨典型的基于距离的度量空间高维索引结构VP-tree及其变种MVP-tree的基本思想、构造和搜索算法的基础上,通过具体的实验对其在图像检索中的性能进行了全面的分析,给出了通过实验得到的结论,最后指出了有待进一步研究的方向。  相似文献   

7.
提出了一种基于TreeMiner算法挖掘频繁子树的文档结构相似度量方法,解决了传统的距离编辑法计算代价高而路径匹配法无法处理重复标签的问题。该方法架构了一个新的检索模型—频繁结构向量模型,给出了文档的结构向量表示和权重函数,构造了XML文档结构相似度量计算公式;同时从数据结构和挖掘程序上对TreeMiner 算法进行了改进,使其更适合大文档数据集的结构挖掘。实验结果表明,该方法具有很高的计算精度和准确率。  相似文献   

8.
曹小鹿  辛云宏 《计算机应用》2017,37(10):2819-2822
降维是大数据分析和可视化领域中的核心问题,其中基于概率分布模型的降维算法通过最优化高维数据模型和低维数据模型之间的代价函数来实现降维。这种策略的核心在于构建最能体现数据特征的概率分布模型。基于此,将Wasserstein距离引入降维,提出一个基于Wasserstein距离概率分布模型的非线性降维算法W-map。W-map模型在高维数据空间和其相关对应的低维数据空间建立相似的Wasserstein流,将降维转化为最小运输问题。在解决Wasserstein距离最小化的问题同时,依据数据的Wasserstein流模型在高维空间与其在低维空间相同的原则,寻找最匹配的低维数据投射。三组针对不同数据集的实验结果表明W-map相对传统概率分布模型可以产生正确性高且鲁棒性好的高维数据降维可视化结果。  相似文献   

9.
在传统的基于欧几里德距离函数的轨迹相似性计算过程中,要求轨迹等长且时间点对应,无法度量不等长且有局部时间偏移的轨迹相似性。因此在构造同步轨迹集合过程中产生信息损失较大,影响轨迹数据的可用性。为此,本文通过引进一种可以度量不等长且有局部时间偏移的轨迹间相似性的距离度量函数——DTW(Dynamic time warping)距离函数,提出一种新的轨迹匿名模型——(k,δ,p)—匿名模型,构造了DTW-TA(Dynamic time warping trajectory anonymity)匿名算法。在合成数据集和真实数据集下的实验结果表明,该算法在满足轨迹k-匿名隐私保护的基础上,减少了信息损失,提高了轨迹数据的可用性。  相似文献   

10.
提出了一种基于自适应距离度量的最小距离分类器集成方法,给出了个体分类器的生成方法。首先用Bootstrap技术对训练样本集进行可重复采样,生成若干个子样本集,应用生成的子样本集建立自适应距离度量模型,根据建立的模型对子样本集进行训练,生成个体分类器。在集成中,将结果用相对多数投票法集成最终的结论。采用UCI标准数据集实验,将该方法与已有方法进行了性能比较,结果表明基于自适应距离度量的最小距离分类器集成是最有效的。  相似文献   

11.
It is proposed that probability intervals be used in reconstructability analysis. A probability interval is a subinterval of the real interval [0,1]. Regarded as “interval-valued probabilities”, these intervals generalize real-valued probabilities and arise naturally in many situations. They may represent confidence intervals resulting from sampling; imprecisely stated subjective probabilities; known linear equality or inequality constraints; etc. Thus, probability intervals are sometimes a more realistic characterization of uncertainty than are real-valued probabilities. Furthermore, the problem of inconsistency can often be avoided by their use

Although the utility of interval-valued probability distributions for the identification problem is emphasized, a reconstruction technique is also developed. This reconstruction method employs a metric distance for interval distributions that is monotonic with respect to model refinement.  相似文献   


12.
针对认知不确定性条件下计算机建模仿真所面临的模型确认问题,提出一种结合了二阶概率法与区间数排序的改进贝叶斯模型确认方法。该方法首先采用二阶概率法对模型的不确定性进行量化,量化结果被做为先验模型输出,再基于实验数据对模型输出的先验概率密度进行贝叶斯更新,最后通过区间数排序的方式对比模型输出的后验和先验概率密度。由此所得的贝叶斯因子能够在模型存在认知不确定性的情况下为模型确认提供可信的结果。算例分析结果显示了本文方法的合理性。  相似文献   

13.
软件项目风险应对措施优选的区间模型及其算法   总被引:2,自引:0,他引:2  
杨莉  李南 《控制与决策》2011,26(4):530-534
针对软件项目风险应对计划中风险应对措施的优选问题,提出一种区间优化模型.该模型基于项目视角,以风险应对成本和风险水平最小化为目标,结合考虑风险管理者的风险偏好,选出满意的风险应对措施组合.考虑到风险概率和风险损失等参数难以给出精确值,模型采用区间数来表示风险概率和风险损失信息.针对模型的求解,利用区间数距离定义和区间数排序规则,给出一种迭代求解算法.案例分析表明了该模型和算法的有效性和可操作性.  相似文献   

14.
A sensor validation criteria based on the sensor's object localization accuracy is proposed. Assuming that the true probability distribution of an object or event in space f(x) is known and a spatial likelihood function (SLF) psi(x) for the same object or event in space is obtained from a sensor, then the expected value of the SLF E[psi(x)] is proposed as a suitable validity metric for the sensor, where the expectation is performed over the distribution f(x). It is shown that for the class of increasing linear log likelihood SLFs, the proposed validity metric is equivalent to the Kullback-Leibler distance between f(x) and the unknown sensor-based distribution g(x) where the SLF psi(x) is an observable increasing function of the unobservable g(x). The proposed technique is illustrated through several simulated and experimental examples.  相似文献   

15.
基于区间T-S 模糊模型的运动模式预测   总被引:1,自引:1,他引:0  
徐正光  孙昌平 《控制与决策》2012,27(11):1699-1705
针对一类复杂的生产过程,提出一种基于运动模式的预测模型.针对该方法中模式类别变量的度量问题,提出采用区间数对定义在模式运动"空间"上的模式类别变量进行度量.为了描述模式在模式运动"空间"的运动,对作者先前提出的区间T-S模糊模型进行了改进,并采用改进后的区间T-S模糊模型建立基于模式类别变量的预测模型.最后,以烧结生产过程实际运行数据为例验证了所提出建模方法的有效性.  相似文献   

16.
Many of the problems addressed through engineering analysis include a set of regulatory (or other) probabilistic requirements that must be demonstrated with some degree of confidence through the analysis. Problems cast in this environment can pose new challenges for computational analyses in both model validation and model-based prediction. The “regulatory problems” given for the “Sandia challenge problems exercise”, while relatively simple, provide an opportunity to demonstrate methods that address these challenges. This paper describes and illustrates methods that can be useful in analysis of the regulatory problem. Specifically, we discuss:
(1) an approach for quantifying variability and uncertainty separately to assess the regulatory requirements and provide a statement of confidence; and
(2) a general validation metric to focus the validation process on a specific range of the predictive distribution (the predictions near the regulatory threshold).
These methods are illustrated using the challenge problems. Solutions are provided for both the static frame and structural dynamics problems.
Keywords: Regulatory problem; Calibration; Model validation; Model-based prediction  相似文献   

17.
针对传统区间二元语义距离计算公式的不足,提出基于离散参数区间二元语义距离公式,构建基于等信息量转换的区间二元语义多属性群决策模型。基于该模型,针对属性权重和专家权重信息完全未知的情形,设计基于极大熵和正理想方案的权重确定模型,给出一种处理区间二元语言评价值的群决策问题求解方法。算例分析表明,所提出的方法可以在一定程度上克服以往基于区间二元语义距离处理方法造成信息扭曲和损失的不足。  相似文献   

18.
This work describes a solution to the validation challenge problem posed at the SANDIA Validation Challenge Workshop, May 21–23, 2006, NM. It presents and applies a general methodology to it. The solution entails several standard steps, namely selecting and fitting several models to the available prior information and then sequentially rejecting those which do not perform satisfactorily in the validation and accreditation experiments. The rejection procedures are based on Bayesian updates, where the prior density is related to the current candidate model and the posterior density is obtained by conditioning on the validation and accreditation experiments. The result of the analysis is the computation of the failure probability as well as a quantification of the confidence in the computation, depending on the amount of available experimental data.  相似文献   

19.

在高斯混合多扩展目标PHD 滤波的基础上, 结合最新兴起的箱粒子滤波, 提出一种基于区间分析的多扩展目标PHD 滤波算法. 采用大小可控的非零矩形区域来代替传统的多个点量测, 这样可降低权值计算中对量测分布的要求. 仿真对比实验表明, 采用区间分析方法在保证近似于传统滤波精度的同时可降低计算复杂度, 在目标数目估计及抗杂波干扰方面也具有较为突出的优势, 并且可解决在目标靠近时由于不能正确给出子划分而造成的漏检问题.

  相似文献   

20.
Qi  Jinwei  Huang  Xin  Peng  Yuxin 《Multimedia Tools and Applications》2017,76(23):25109-25127

As a highlighting research topic in the multimedia area, cross-media retrieval aims to capture the complex correlations among multiple media types. Learning better shared representation and distance metric for multimedia data is important to boost the cross-media retrieval. Motivated by the strong ability of deep neural network in feature representation and comparison functions learning, we propose the Unified Network for Cross-media Similarity Metric (UNCSM) to associate cross-media shared representation learning with distance metric in a unified framework. First, we design a two-pathway deep network pretrained with contrastive loss, and employ double triplet similarity loss for fine-tuning to learn the shared representation for each media type by modeling the relative semantic similarity. Second, the metric network is designed for effectively calculating the cross-media similarity of the shared representation, by modeling the pairwise similar and dissimilar constraints. Compared to the existing methods which mostly ignore the dissimilar constraints and only use sample distance metric as Euclidean distance separately, our UNCSM approach unifies the representation learning and distance metric to preserve the relative similarity as well as embrace more complex similarity functions for further improving the cross-media retrieval accuracy. The experimental results show that our UNCSM approach outperforms 8 state-of-the-art methods on 4 widely-used cross-media datasets.

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号