首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   159篇
  免费   39篇
  国内免费   40篇
电工技术   15篇
综合类   9篇
金属工艺   2篇
机械仪表   2篇
建筑科学   14篇
矿业工程   1篇
能源动力   1篇
轻工业   1篇
水利工程   4篇
石油天然气   7篇
武器工业   1篇
无线电   25篇
一般工业技术   2篇
冶金工业   6篇
自动化技术   148篇
  2024年   21篇
  2023年   59篇
  2022年   35篇
  2021年   38篇
  2020年   18篇
  2019年   7篇
  2017年   4篇
  2016年   2篇
  2015年   4篇
  2014年   3篇
  2013年   5篇
  2011年   5篇
  2010年   3篇
  2009年   3篇
  2008年   4篇
  2007年   6篇
  2006年   8篇
  2005年   2篇
  2004年   2篇
  2002年   1篇
  2000年   4篇
  1998年   1篇
  1997年   1篇
  1986年   1篇
  1985年   1篇
排序方式: 共有238条查询结果,搜索用时 15 毫秒
81.
基于特征选择和模型可解释方法构建可解释性强的云平台任务终止状态预测模型,该模型可视化任务/作业的静态和动态属性与终止状态之间的映射关系,进而找出负载特征与任务终止状态之间的映射机理.利用Google公开的工作负载监控日志,并加入云平台中任务的动态信息,采用沙普利加和解释(Shapley additive explain,SHAP)找出静态和动态属性对终止状态影响的重要性,利用变量重要性结合SHAP值和XGBoost模型,对任务终止状态预测模型建模后的结果进行解释,使用可视化技术呈现负载特征如何影响模型对不同任务终止状态的预测.用SHAP值绝对值的平均值衡量特征的重要性,实现任务不同终止状态特征重要性的全局可视化,根据结果筛选出对任务终止状态预测模型影响大的20个变量,作为特征筛选的依据;由可视化的结果可知,任务运行过程中,各特征的不同特征值对任务的终止状态有影响,不同特征值对终止状态的产生有不同的影响.特征选择结合模型可解释性方法运用于任务终止状态预测模型的构建流程中,可辅助构建高分类性能及易于理解的任务终止状态预测模型,通过对负载特征与任务终止状态之间映射机理的探索,可以优化云平台的...  相似文献   
82.
徐琴珍  杨绿溪 《信号处理》2010,26(11):1663-1669
本文提出了一种基于优化神经网络树(ONNT)的异常检测方法,在提高异常检测精确率的同时,增强异常检测模型学习结果的可理解性、可解释性。ONNT是一种具有二叉树结构的混合学习模型,二叉树的节点分裂遵循信息增益率准则;其中间节点嵌入了结构简单的感知器神经网络,能够根据当前节点上给定的子样本集和教师信号,选择较小的特征子集构建相对简单的局部决策曲面。本文提出的异常检测方法包括两个方面的性能优化:1)通过优化神经网络树(NNT)的中间节点,降低局部决策曲面的复杂度,从而使中间节点能在可接受的计算代价内表示成低复杂度的布尔函数或规则集,为实现学习结果的可解释性提供基础;2)通过优化学习模型的整体结构,降低所有中间节点的规则析取式的前件复杂度,从而提高学习结果的可理解性。实验的数值结果表明,与基于NNT的异常检测方法相比,本文提出的方法能够以简单的中间节点和相对精简的整体结构提高检测结果的可解释性和可理解性;与其他同类方法相比,基于ONNT的异常检测方法具有较高的检测精确率,且在一定程度上给出了对异常检测具有重大影响的一些特征信息。   相似文献   
83.
建立大坝性状的解释性模型是实现监测自动化的关键。本文以葛洲坝工程二江泄水闸施工期沉陷变形资料分析为例,探讨了在环境原因量与运行效果量之间建立决定论模型的有关问题。  相似文献   
84.
混凝土结构的基本性能,如构件破坏模式、承载力、延性等,是结构设计与评估过程中的重要参数.准确地预测混凝土结构的基本性能,直接决定了结构设计与分析的准确度与可靠性.提出了一种基于机器学习的混凝土结构基本性能预测方法,可以根据结构的基本设计参数(如几何尺寸、材料属性、荷载工况等),直接给出其性能指标.同时,利用近年来提出的...  相似文献   
85.
当前,基于协同过滤和隐因子模型的大学生就业推荐方法,仅考虑学生对就业单位单向偏好易导致"能力失配",且一个用户一次就业的历史记录极易致负样本不可信,影响推荐性能,同时忽略了对推荐结果的可解释性需求.针对此,依据多任务学习的思路,设计并构建了基于互惠性约束的可解释就业推荐方法.其中,引入注意力机制与模糊门机制,提取并自适应聚合学生与就业单位双向的偏好与需求,缓解"能力失配"问题;提出面向就业意图和就业特征的推荐解释方法,满足可解释性需求;提出基于相似度的随机负采样方法,克服负样本不置信问题.在某高校5届毕业生就业真实数据集上的实验结果表明:相比于多个经典和同时代的推荐方法,所提方法在AUC指标上提升超6%,并且通过消融实验验证了所提方法中各模块的有效性.  相似文献   
86.
深度学习是当前医疗多变量时序数据分析的主流方法.临床辅助决策关乎病人生命健康,因此深度模型需要抽取患者个性化表示,保证较高的分析、预测准确率;同时还需提供足够的可解释性,即能解释模型给出分析、预测结论的依据.而现有工作暂未能匹配医疗领域多变量时间序列数据的特性来进行个性化表示学习,同时源于深度学习的黑盒性质,现有模型大都可解释性不足,难以满足临床应用的需求.在此背景下,提出了基于医疗特征上下文学习的患者健康状态可解释评估方法Dr.Deep,将各变量的时序特征分别编码,利用多头去协同的自注意力机制,学习不同特征之间关联关系;提出了基于压缩激励机制的特征跳连编码,提升模型对最新病情变化的敏感性并针对不同患者情况分析特征重要性.实验表明:Dr.Deep在重症监护患者脓毒症预测、新冠肺炎重症患者出院时间预测等任务中相比业界方法性能提升,且可以针对不同患者的不同指标自适应学习其重要性作为可解释性的关键因素.同时设计并实现了基于医疗多变量时序数据分析的医生临床辅助系统,该系统建立病人的健康表示学习和预后预测模型并可视化患者病情进展以便医生分析.实验代码已开源于https://github.com/Accountable-Machine-Intelligence/Dr.Deep.所设计的智能医生可视化交互系统已发布于http://47.93.42.104/challenge/100049.  相似文献   
87.
提出一种基于模糊聚类和遗传算法的模糊分类系统的设计方法.首先定义了模糊分类系统的精确性指标,给出解释性的必要条件.然后利用聚类有效性分析确定模糊规则数目,利用模糊聚类算法辨识初始的模糊分类系统.随后利用模糊集合相似性分析与融合对初始的模糊分类系统进行约简,提高其解释性;利用遗传算法对约简后的模糊分类系统进行优化,提高其精确性,该过程反复迭代直至满足中止条件.最后利用该方法进行Iris数据样本分类,仿真结果验证了该方法的有效性.  相似文献   
88.
认知诊断是认知心理学与教育测量理论的融合,它可以通过学生的答题记录和试题信息,推断出学生当前的知识状态,从而全面地评估和诊断被测个体的心理或活动行为规律。由于认知诊断可以提供相较教育测量理论更为丰富的测量信息,它逐渐成为现代智慧教育场景下的主要能力评估手段。该文首先详细介绍了认知诊断的概念、历史发展以及研究现状,之后聚焦4个具有代表性的认知诊断模型:项目反应理论、多维项目反应理论、DINA模型以及神经认知诊断模型,详细介绍了它们的理论基础、模型结构以及训练方式,并基于经典的认知诊断数据集ASSISTments 2009-2010 Skill-builder data的346 860条样本,对4个模型的认知准确度和模型的可解释性分别进行了比较分析。经过比较分析,发现神经认知诊断模型与其他认知诊断模型相比不仅具有更好的认知准确度,而且具备高度的可解释性。此外,通过调研和实践总结出了4个认知诊断模型在现代智慧教育下的不同适用场景,为认知诊断研究提供了新视角。  相似文献   
89.
神经网络语言模型应用广泛但可解释性较弱,其可解释性的一个重要而直接的方面表现为词嵌入向量的维度取值和语法语义等语言特征的关联状况。先前的可解释性工作集中于对语料库训得的词向量进行知识注入,以及基于训练和任务的算法性能分析,对词嵌入向量和语言特征之间的关联缺乏直接的验证和探讨。该文应用基于语言知识库的伪语料法,通过控制注入语义特征,并对得到的词嵌入向量进行分析后取得了一些存在性的基础性结论: 语义特征可以通过控制注入到词嵌入向量中;注入语义特征的词嵌入向量表现出很强的语义合成性,即上层概念可以由下层概念表示;语义特征的注入在词嵌入向量的所有维度上都有体现。  相似文献   
90.
深度学习目前在计算机视觉、自然语言处理、语音识别等领域得到了深入发展,与传统的机器学习算法相比,深度模型在许多任务上具有较高的准确率.然而,作为端到端的具有高度非线性的复杂模型,深度模型的可解释性没有传统机器学习算法好,这为深度学习在现实生活中的应用带来了一定的阻碍.深度模型的可解释性研究具有重大意义而且是非常必要的,近年来许多学者围绕这一问题提出了不同的算法.针对图像分类任务,将可解释性算法分为全局可解释性和局部可解释性算法.在解释的粒度上,进一步将全局解释性算法分为模型级和神经元级的可解释性算法,将局部可解释性算法划分为像素级特征、概念级特征以及图像级特征可解释性算法.基于上述分类框架,总结了常见的深度模型可解释性算法以及相关的评价指标,同时讨论了可解释性研究面临的挑战和未来的研究方向.认为深度模型的可解释性研究和理论基础研究是打开深度模型黑箱的必要途径,同时可解释性算法存在巨大潜力可以为解决深度模型的公平性、泛化性等其他问题提供帮助.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号