共查询到19条相似文献,搜索用时 62 毫秒
1.
2.
3.
4.
张量投票法是一种提取图像特征的新方法,它利用张量鲁棒性强的特性,提取图像中点、线、面特征的特点,消除图像中孤立点显著性,突出所提取的线、面特征,重新构建图像,从而达到去除噪声、突出边缘的目的。通过实验证明,张量投票法在提取边缘及点特征方面有着显著的效果。 相似文献
5.
6.
基于AHP-Fuzzy的航电综合化仿真系统可信度评估 总被引:2,自引:0,他引:2
朱岩 《计算机测量与控制》2008,16(3):404-406
航电综合化仿真系统的可信度研究越来越成为航电综合化仿真方面的一个重要研究课题;采用层次分析法和模糊综合评判相结合的方法,对航电综合化仿真系统的可信度评判进行了初步的探讨;针对航电综合化仿真系统的具体特点,用层次分析法建立了航电综合化仿真系统的层次模型并确定各子系统的权重,并利用模糊综合评判方法对整个系统的可信度进行评判,充分体现评价因素和评价过程所固有的模糊性,比一般的评价打分等方法更符合客观实际,从而使得评价结果可信、可靠。 相似文献
7.
8.
9.
10.
王东杰 《计算机与数字工程》2021,49(9):1777-1781
属性约简是粗糙集核心内容之一,然而,传统基于邻域粗糙集的局部约简算法具有以下两个问题:1)经典邻域粗糙集没有关注到半径变化对样本标签的影响,以致于不同标签样本被划分到相同邻域;2)传统的属性约简算法只有一个约束条件,缺乏适用性.为了解决这一难题,论文从局部视角出发,利用伪标签邻域粗糙集模型,构建了一种属性约简方法.实验... 相似文献
11.
针对Android平台恶意应用的检测技术,提出一种基于集成学习投票算法的Android恶意程序检测方法MASV(Soft-Voting Algorithm),以有效地对未知应用程序进行分类。从已知开源的数据集中获取了实验的基础数据,使用的应用程序集包含213 256个良性应用程序以及18 363个恶意应用程序。使用SVM-RFE特征选择算法对特征进行降维。使用多个分类器的集合,即SVM(Support Vector Machine)、[K]-NN[(K]-Nearest Neighbor)、NB(Na?ve Bayes)、CART(Classification and Regression Tree)和RF(Random Forest),以检测恶意应用程序和良性应用程序。使用梯度上升算法确定集成学习软投票的基分类器权重参数。实验结果表明,该方法在恶意应用程序检测中达到了99.27%的准确率。 相似文献
12.
情感分类是目前自然语言处理领域的一个具有挑战性的研究热点,该文主要研究基于半监督的文本情感分类问题。传统基于Co-training的半监督情感分类方法要求文本具备大量有用的属性集,其训练过程是线性时间的计算复杂度并且不适用于非平衡语料。该文提出了一种基于多分类器投票集成的半监督情感分类方法,通过选取不同的训练集、特征参数和分类方法构建了一组有差异的子分类器,每轮通过简单投票挑选出置信度最高的样本使训练集扩大一倍并更新训练模型。该方法使得子分类器可共享有用的属性集,具有对数时间复杂度并且可用于非平衡语料。实验结果表明我们的方法在不同语种、不同领域、不同规模大小,平衡和非平衡语料的情感分类中均具有良好效果。 相似文献
13.
从局部分类精度到分类置信度的变换 总被引:2,自引:0,他引:2
基于局部分类精度设计多分类器系统能够有效地提高分类正确率.目前流行的动态分类器选择方法不能充分利用各个基本分类器的信息.在动态分类器选择方法中,局部分类精度最高的基本分类器决定最终的分类结果,其他基本分类器的信息被忽略.提出了一种将局部分类精度变换为分类置信度的方法,从而可以利用度量层分类器融合方法对得到的置信度进行融合.与动态分类器选择方法相比,度量层分类器融合方法能够利用更多的信息,从而能够取得更高的分类正确率.ELENA数据库、UCI数据库和DELVE数据库上的大量实验表明,新方法在分类正确率方面超过动态分类器选择方法大约0.2%~13.6%. 相似文献
14.
An Empirical Comparison of Voting Classification Algorithms: Bagging,Boosting, and Variants 总被引:41,自引:1,他引:41
Methods for voting classification algorithms, such as Bagging and AdaBoost, have been shown to be very successful in improving the accuracy of certain classifiers for artificial and real-world datasets. We review these algorithms and describe a large empirical study comparing several variants in conjunction with a decision tree inducer (three variants) and a Naive-Bayes inducer. The purpose of the study is to improve our understanding of why and when these algorithms, which use perturbation, reweighting, and combination techniques, affect classification error. We provide a bias and variance decomposition of the error to show how different methods and variants influence these two terms. This allowed us to determine that Bagging reduced variance of unstable methods, while boosting methods (AdaBoost and Arc-x4) reduced both the bias and variance of unstable methods but increased the variance for Naive-Bayes, which was very stable. We observed that Arc-x4 behaves differently than AdaBoost if reweighting is used instead of resampling, indicating a fundamental difference. Voting variants, some of which are introduced in this paper, include: pruning versus no pruning, use of probabilistic estimates, weight perturbations (Wagging), and backfitting of data. We found that Bagging improves when probabilistic estimates in conjunction with no-pruning are used, as well as when the data was backfit. We measure tree sizes and show an interesting positive correlation between the increase in the average tree size in AdaBoost trials and its success in reducing the error. We compare the mean-squared error of voting methods to non-voting methods and show that the voting methods lead to large and significant reductions in the mean-squared errors. Practical problems that arise in implementing boosting algorithms are explored, including numerical instabilities and underflows. We use scatterplots that graphically show how AdaBoost reweights instances, emphasizing not only hard areas but also outliers and noise. 相似文献
15.
基于算法随机性理论和奇异描述的置信学习机器 总被引:3,自引:0,他引:3
摘要根据Kolmogorov算法随机性理论,为学习机器建立了一种置信机制,描述了置信学习机器的算法.论证了通过样本奇异描述函数定义的可计算的样本序列随机性描述函数与Kolmogorov算法随机性理论中定义的,不可计算的序列随机性描述函数具有相同的意义.分别从样本空间距离、样本对分类边界的支持力度和样本应变大小3个不同的角度设计了样本奇异描述函数,利用它们实现了置信学习机器算法.该置信学习机器在Cleveland心脏病理数据识别和签名认证实验中都取得了比较满意的结果. 相似文献
16.
针对协同训练算法对无标记数据挑选效率较低,导致噪声数据引入问题,提出了基于图的置信度估计半监督协同训练算法(CESL).利用样本数据自身的结构信息,显式计算无标记样本所属类别概率.同时,采用了多分类器隐式对无标记数据进行置信度估计,以提高无标记数据挑选标准.将显示计算和隐式估计结合对无标记数据进行选择,减低噪音数据的引入,更新分类器.在UCI数据集上的对比实验表明了该算法的有效性. 相似文献
17.
根据 Kolmogorov算法随机性理论 ,描述定义了具有置信判别能力的置信学习机器 .利用普通支持向量学习机器中的 L agrangian系数 ,从系数基本的物理内涵出发 ,近似实现了 Kolmogorov算法随机性理论定义的普适不可计算的随机性描述函数 .并由此定义了学习的置信度 ,使得支持向量学习机在学习判断对象类别的同时能够给出该次判断的可信程度 ,丰富了学习机器的输出信息 .将置信支持向量机用于认证手写签名的特征向量 ,提高了在线手写签名认证应用系统的可靠性和灵活性 相似文献
18.
贝叶斯在训练样本不完备的情况下,对未知类别新增训练集进行增量学习时,会将分类错误的训练样本过早地加入到分类器中而降低其性能,另外增量学习采用固定的置信度评估参数会使其效率低下,泛化性能不稳定.为解决上述问题,提出一种动态置信度的序列选择增量学习方法.首先,在现有的分类器基础上选出分类正确的文本组成新增训练子集.其次,利用置信度动态监控分类器性能来对新增训练子集进行批量实例选择.最后,通过选择合理的学习序列来强化完备数据的积极影响,弱化噪声数据的消极影响,并实现对测试文本的分类.实验结果表明,本文提出的方法在有效提高分类精度的同时也能明显改善增量学习效率. 相似文献
19.
Gestational Diabetes Mellitus (GDM) is an illness that represents a certain degree of glucose intolerance with onset or first recognition during pregnancy. In the past few decades, numerous investigations were conducted upon early identification of GDM. Machine Learning (ML) methods are found to be efficient prediction techniques with significant advantage over statistical models. In this view, the current research paper presents an ensemble of ML-based GDM prediction and classification models. The presented model involves three steps such as preprocessing, classification, and ensemble voting process. At first, the input medical data is preprocessed in four levels namely, format conversion, class labeling, replacement of missing values, and normalization. Besides, four ML models such as Logistic Regression (LR), k-Nearest Neighbor (KNN), Support Vector Machine (SVM), and Random Forest (RF) are used for classification. In addition to the above, RF, LR, KNN and SVM classifiers are integrated to perform the final classification in which a voting classifier is also used. In order to investigate the proficiency of the proposed model, the authors conducted extensive set of simulations and the results were examined under distinct aspects. Particularly, the ensemble model has outperformed the classical ML models with a precision of 94%, recall of 94%, accuracy of 94.24%, and F-score of 94%. 相似文献