首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   0篇
轻工业   1篇
自动化技术   5篇
  2021年   3篇
  2019年   1篇
  2009年   1篇
  1992年   1篇
排序方式: 共有6条查询结果,搜索用时 46 毫秒
1
1.
在地基气象云图的云状(云类)识别研究中,基于局部二值模式(Local Binary Pattern,LBP)描述子的特征选择技术由于它的简单性和有效性成为最通用的方法.然而,LBP特征的高维特性使得云状识别的性能和计算开销不能令人满意.为此,本文提出一种基于互信息构造的F检验统计量的LBP特征选择算法,可以实现高维LBP特征的有效降维,同时保证云状识别的准确性,极大减少了特征选择过程的计算开销.  相似文献   
2.
在传统的机器学习中,模型选择常常是直接基于某个性能度量指标的估计本身进行,没有考虑估计的方差,但是这样的忽略极有可能导致错误模型的选择。于是考虑在分类模型选择研究中添加方差的信息的方法,以提高所选模型的泛化能力,即将泛化误差性能度量指标的组块3×2交叉验证估计的方差估计作为正则化项添加到传统模型选择准则中,提出了一种新的方差正则化的分类模型选择准则。模拟和真实数据实验验证了在分类模型选择问题中,提出的模型选择准则相比传统方法选到正确分类模型的概率更大,验证了方差在模型选择中的重要性以及提出的模型选择准则的有效性。进一步,理论上证明了在二分类问题的模型选择中,该模型选择准则具有选择的一致性。  相似文献   
3.
在机器学习中,K折交叉验证方法常常通过把数据分成多个训练集和测试集来进行模型评估与选择,然而其折数K的选择一直是一个公开的问题。注意到上述交叉验证数据划分的一个前提假定是训练集和测试集的分布一致,但是实际数据划分中,往往不是这样。因此,可以通过度量训练集和测试集的分布一致性来进行K折交叉验证折数K的选择。直观地,KL(Kullback-Leibler)距离是一种合适的度量方法,因为它度量了两个分布之间的差异。然而直接基于KL距离进行K的选择时,从多个数据实验结果发现随着K的增加KL距离也在增大,显然这是不合适的。为此,提出了一种基于正则化KL距离的K折交叉验证折数K的选择准则,通过最小化此正则KL距离来选择合适的折数K。进一步多个真实数据实验验证了提出准则的有效性和合理性。  相似文献   
4.
杨杏丽 《计算机科学》2021,48(8):209-219
在机器学习的分类问题研究中,对分类学习算法的正确评价是非常重要的.现实中,许多性能度量指标被从不同的角度提出,文中主要介绍了基于错误率的、基于混淆矩阵的和基于统计显著性检验的三大类性能度量指标,详细地讨论了分类学习算法各性能度量指标的提出背景、意义以及适用范围,分析了各种性能度量之间的差异,提出和分析了各方法中有待进一步研究的问题和方向.进一步,通过实验数据横向(每类度量中各方法之间的类内差异)和纵向(3类度量之间的类间差异)对照了各性能度量指标之间的差异,分析了各性能度量指标在分类算法选择上的一致性.  相似文献   
5.
产品质量是指产品的使用价值,指产品适合一定用途、能够满足国家建设和人民生活需要所具备的质量特性。它可概括为产品的性能、寿命、可靠性、安全性、经济性五个方面。产品这五个方面的特性又是通过其设计质量、制造质量、检验质量、使用质量来保证的。换句话说,产品质量是企业各部门的人的工作质量来保证的。即人是保证产品质量的关键。  相似文献   
6.
该文针对中文阅读理解问答中的时间、人物、地点、数值、实体、描述六类问题,制定了各类问题回答的启发式规则集。对规则集中每条规则赋予一个相应权值,利用正交表对各规则所对应的权值进行了调优选取,给出了各候选答案句基于相应规则的得分计算方法。该文方法在山西大学自主开发的中文阅读理解语料库CRCC v1.1 上进行了实验,在整个语料库上得到了83.09%的HumSent准确率。为了与文献[10]中的最大熵方法比较,该文在与文献[10]中完全相同的训练集上调优规则的权值,在相同的测试集上测试,最终得到HumSent准确率81.13%,比最大熵的方法高大约1%, 且在全部的六类问题上,该文方法的HumSent准确率都不低于最大熵方法。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号