首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   27篇
  免费   7篇
  国内免费   9篇
综合类   6篇
能源动力   2篇
自动化技术   35篇
  2022年   4篇
  2021年   1篇
  2020年   2篇
  2019年   1篇
  2018年   5篇
  2017年   3篇
  2016年   3篇
  2015年   2篇
  2014年   5篇
  2013年   1篇
  2012年   6篇
  2011年   3篇
  2010年   3篇
  2009年   3篇
  2007年   1篇
排序方式: 共有43条查询结果,搜索用时 15 毫秒
11.
通过建立600MW超临界机组隔板密封三维模型,应用Fluent软件模拟计算与汽缸同心的转子在有无旋转的情况下对隔板汽封蒸汽泄漏量的影响;研究了在转速3 000r/min,转子无偏心,进出口压力改变时隔板汽封蒸汽泄漏量的变化情况;并分析偏心距对泄漏量和汽流激振力的影响规律。计算结果与分析表明,进出口压比对迷宫密封性能的影响是随着进出口压比的增大泄漏量增大;偏心距增大泄漏量增大,同时汽流激振力也随之增大。  相似文献   
12.
Pawlak提出的基于属性重要度的约简算法是常用的算法之一,它通过计算等价关系对论域划分的粒度来度量属性的重要度。但用该算法计算每一个属性的重要度时,都要计算不同等价关系对整个论域的划分,计算复杂度非常高。受决策树划分子集思想的启发,对基于属性重要度的属性约简算法进行了改进,提出了一种基于划分子集的属性约简算法。在核属性集形成划分的基础上,通过在核属性中添加非核属性从而形成更细的划分,如此反复。在保持正域不变的框架下,形成最细化分的属性集就是一个约简。理论分析显示该算法减少了求属性约简的计算时间复杂度,提高了求属性约简的效率。  相似文献   
13.
提出一种概率神经网络样例选择算法,它包括两个阶段,第一个阶段利用概率神经网络计算样例的不确定性,第二个阶段利用计算出的不确定性选择样例.与压缩近邻规则、编辑近邻规则、约简近邻规则和迭代过滤算法四种代表性的样例选择算法进行了实验比较,实验结果显示在能力保持框架下,该算法的性能优于这四种方法.本文提出的算法具有下列特点:(1)学习速度快;(2)没有分类器的限制;(3)具有好的泛化能力.  相似文献   
14.
基于样例选取的属性约简算法   总被引:2,自引:0,他引:2  
计算属性约简是粗糙集框架下归纳学习的关键部分.基于差别矩阵的属性约简算法是常用的属性约简算法之一.给定一个信息系统,利用该算法可以求出信息系统的所有属性约简.但是该算法需要的存储空间大,执行时间长,特别是对于大型数据库,差别矩阵的存储成为其应用的瓶颈.针对这一问题,提出了一种基于样例选取的属性约简算法,算法分为3步:首先从样例集中挑选出重要的样例;然后用选出的样例构造差别矩阵;最后计算信息系统的所有约简.实验结果显示,当处理大型数据库时,新算法能有效地减少存储空间和执行时间.  相似文献   
15.
翟俊海  臧立光  张素芳 《计算机科学》2016,43(12):125-129, 145
极限学习机是一种训练单隐含层前馈神经网络的算法,它随机初始化输入层的权值和隐含层结点的偏置,用分析的方法确定输出层的权值。极限学习机具有学习速度快、泛化能力强的特点。很多研究都用服从[-1,1]区间均匀分布的随机数初始化输入层权值和隐含层结点的偏置,但没有对这种随机初始化合理性的研究。用实验的方法对这一问题进行了研究,分别研究了随机权服从均匀分布、高斯分布和指数分布对极限学习机性能的影响。研究发现随机权的分布对极限学习机的性能的确有影响,对于不同的问题或不同的数据集,服从[-1,1]区间均匀分布的随机权不一定是最优的选择。研究结论对从事极限学习机研究的人员具有一定的借鉴作用。  相似文献   
16.
随着数据的爆炸式增长,大数据问题越来越受到关注,然而由于大数据具有维度较高、数据复杂且变化迅速的特性,导致传统的机器学习算法不再适用,故解决大数据特征选择问题迫在眉睫.本文基于投票机制和决策树算法提出了大数据环境下的投票特征选择算法.具体步骤为,随机划分大数据集U为L个子集,将划分后的L个子集发送到L个map节点,在每...  相似文献   
17.
针对大数据样例选择问题,提出了一种基于随机森林(RF)和投票机制的大数据样例选择算法。首先,将大数据集划分成两个子集,要求第一个子集是大型的,第二个子集是中小型的。然后,将第一个大型子集划分成q个规模较小的子集,并将这些子集部署到q个云计算节点,并将第二个中小型子集广播到q个云计算节点。接下来,在各个节点用本地数据子集训练随机森林,并用随机森林从第二个中小型子集中选择样例,之后合并在各个节点选择的样例以得到这一次所选样例的子集。重复上述过程p次,得到p个样例子集。最后,用这p个子集进行投票,得到最终选择的样例子集。在Hadoop和Spark两种大数据平台上实现了提出的算法,比较了两种大数据平台的实现机制。此外,在6个大数据集上将所提算法与压缩最近邻(CNN)算法和约简最近邻(RNN)算法进行了比较,实验结果显示数据集的规模越大时,与这两个算法相比,提出的算法测试精度更高且时间消耗更短。证明了提出的算法在大数据处理上具有良好的泛化能力和较高的运行效率,可以有效地解决大数据的样例选择问题。  相似文献   
18.
信息粒度、信息熵与决策树   总被引:1,自引:0,他引:1       下载免费PDF全文
对粗信息粒与细信息粒的信息熵做了比较研究,并研究了粗信息粒和细信息粒对决策树产生的影响,得出以下结论:粗信息粒的信息熵不小于细信息粒的信息熵,细信息粒下选取扩展属性产生的决策树优于粗信息粒下选取扩展属性生成的决策树。  相似文献   
19.
基于构建有序决策树,提出了一种新的归纳算法。该算法选择的扩展属性不仅和类的有序互信息值最大,而且要求和同一分支上已被用过的条件属性的有序互信息值最小。实验结果表明,考虑了条件属性之间的相关性后,可避免同一条件属性的重复选择,真正体现了条件属性和决策属性之间的有序互信息,与已有的算法相比,提高了测试精度。  相似文献   
20.
随着数据的海量型增长,如何存储并利用数据成为目前学术研究和工业应用等方面的热门问题。样例选择是解决此类问题的方法之一,它在原始数据中依据既定规则选出代表性的样例,从而有效地降低后续工作的难度。基于此,提出一种基于哈希学习的投票样例选择算法。首先通过主成分分析(PCA)方法将高维数据映射到低维空间;然后利用k-means算法结合矢量量化方法进行迭代运算,并将数据用聚类中心的哈希码表示;接着将分类后的数据按比例进行随机选择,在多次独立运行算法后投票选择出最终的样例。与压缩近邻(CNN)算法和大数据线性复杂度样例选择算法LSH-IS-F相比,所提算法在压缩比方面平均提升了19%。所提算法思想简单容易实现,能够通过调节参数自主控制压缩比。在7个数据集上的实验结果显示所提算法在测试精度相似的情况下在压缩比和运行时间方面较随机哈希有较大优势。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号