首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   167篇
  免费   40篇
  国内免费   41篇
电工技术   18篇
综合类   10篇
金属工艺   2篇
机械仪表   2篇
建筑科学   14篇
矿业工程   1篇
能源动力   1篇
轻工业   1篇
水利工程   4篇
石油天然气   7篇
武器工业   1篇
无线电   26篇
一般工业技术   2篇
冶金工业   6篇
自动化技术   153篇
  2024年   23篇
  2023年   60篇
  2022年   41篇
  2021年   39篇
  2020年   18篇
  2019年   7篇
  2017年   4篇
  2016年   2篇
  2015年   4篇
  2014年   3篇
  2013年   5篇
  2011年   5篇
  2010年   3篇
  2009年   3篇
  2008年   4篇
  2007年   6篇
  2006年   8篇
  2005年   2篇
  2004年   2篇
  2002年   1篇
  2000年   4篇
  1998年   1篇
  1997年   1篇
  1986年   1篇
  1985年   1篇
排序方式: 共有248条查询结果,搜索用时 15 毫秒
21.
推荐系统对筛选有效信息和提高信息获取效率具有重大的意义。传统的推荐系统会面临数据稀松和冷启动等问题。利用外部评分和物品内涵知识相结合,提出一种基于循环知识图谱和协同过滤的电影推荐模型--RKGE-CF。在充分考虑物品、用户、评分之间的相关性后,利用基于物品和用户的协同过滤进行Top-[K]推荐;将物品的外部附加数据和用户偏好数据加入知识图谱,提取实体相互之间的依赖关系,构建用户和物品之间的交互信息,以便揭示实体与关系之间的语义,帮助理解用户兴趣;将多种推荐结果按不同方法融合进行对比;模型训练时使用多组不同的负样本作为对比,以优化模型;最后利用真实电影数Movielens和IMDB映射连接成新数据集进行测试。实验结果证明该模型对于推荐效果的准确率有显著的提升,同时能更好地解释推荐背后的原因。  相似文献   
22.
23.
社交媒体时代给我们带来便利的同时也造成了谣言泛滥,因此通过人工智能技术进行谣言检测具有重要的研究价值。尽管基于深度学习的谣言检测取得了很好的效果,但其大多数是根据潜在特征进行谣言检测的,无法学习情感与语义之间的相关性,同时忽视了从情感角度提供解释。为解决上述问题,该文提出一种基于双重情感感知的可解释谣言检测模型,旨在利用协同注意力机制分别学习谣言语义与用户评论情感,以及谣言情感与用户评论情感的相关性进行谣言检测,并通过协同注意力权重从情感角度提供合理的解释。在公开的Twitter15、 Twitter16和Weibo20数据集上的实验结果表明,该文提出的模型与对比模型相比,在准确率上分别提高了3.9%,3.9%和4.4%,且具有合理的可解释性。  相似文献   
24.
深度神经网络在多个领域取得了突破性的成功,然而这些深度模型大多高度不透明。而在很多高风险领域,如医疗、金融和交通等,对模型的安全性、无偏性和透明度有着非常高的要求。因此,在实际中如何创建可解释的人工智能(Explainable artificial intelligence, XAI)已经成为了当前的研究热点。作为探索XAI的一个有力途径,模糊人工智能因其语义可解释性受到了越来越多的关注。其中将高可解释的Takagi-Sugeno-Kang(TSK)模糊系统和深度模型相结合,不仅可以避免单个TSK模糊系统遭受规则爆炸的影响,也可以在保持可解释性的前提下取得令人满意的测试泛化性能。本文以基于栈式泛化原理的可解释的深度TSK模糊系统为研究对象,分析其代表模型,总结其实际应用场景,最后剖析其所面临的挑战与机遇。  相似文献   
25.
针对目前正交频分复用(OFDM)雷达信号识别方法存在的问题,提出了一种具有可解释性的OFDM雷达信号识别方法。该方法是通过基于树结构的流程优化(TPOT)和与模型无关的局部可理解的解释性(LIME)相结合对OFDM雷达信号进行识别。针对OFDM雷达信号特性提取了复杂度特征和基于时频图矩阵的奇异值熵,组成特征向量;通过TPOT,得到表现最佳的机器学习流程;通过“解释器”解释预测结果,对识别结果做出是否识别正确的风险评估,同时可根据OFDM雷达信号的解释性,得到哪些信号不易区分。实验表明,该方法对信噪比为0 dB时的OFDM雷达信号的识别率达91%,通过LIME给出的解释性可以判断数据集中不易区分的雷达信号类型。  相似文献   
26.
深度神经模糊系统算法及其回归应用   总被引:1,自引:0,他引:1  
深度神经网络是人工智能的热点, 可以很好处理高维大数据, 却有可解释性差的不足. 通过IF-THEN规则构建的模糊系统, 具有可解释性强的优点, 但在处理高维大数据时会遇到“维数灾难”问题. 本文提出一种基于ANFIS (Adaptive network based fuzzy inference system)的深度神经模糊系统(Deep neural fuzzy system, DNFS)及两种基于分块和分层的启发式实现算法: DNFS1和DNFS2. 通过四个面向回归应用的数据集的测试, 我们发现: 1)采用分块、分层学习的DNFS在准确度与可解释性上优于BP、RBF、GRNN等传统浅层神经网络算法, 也优于LSTM和DBN等深度神经网络算法; 2)在低维问题中, DNFS1具有一定优势; 3)在面对高维问题时, DNFS2表现更为突出. 本文的研究结果表明DNFS是一种新型深度学习方法, 不仅可解释性好, 而且能有效解决处理高维数据时模糊规则数目爆炸的问题, 具有很好的发展前景.  相似文献   
27.
28.
29.
随着机器学习在安全关键领域的应用愈加广泛,对于机器学习可解释性的要求也愈加提高.可解释性旨在帮助人们理解模型内部的运作原理以及决策依据,增加模型的可信度.然而,对于随机森林等机器学习模型的可解释性相关研究尚处于起步阶段.鉴于形式化方法严谨规范的特性以及近年来在机器学习领域的广泛应用,提出一种基于形式化和逻辑推理方法的机器学习可解释性方法,用于解释随机森林的预测结果.即将随机森林模型的决策过程编码为一阶逻辑公式,并以最小不满足核为核心,提供了关于特征重要性的局部解释以及反事实样本生成方法.多个公开数据集的实验结果显示,所提出的特征重要性度量方法具有较高的质量,所提出的反事实样本生成算法优于现有的先进算法;此外,从用户友好的角度出发,可根据基于反事实样本分析结果生成用户报告,在实际应用中,能够为用户改善自身情况提供建议.  相似文献   
30.
平昱恺  黄鸿云  江贺  丁佐华 《软件学报》2022,33(9):3391-3406
目标检测模型已经在很多领域得到广泛应用, 但是, 作为一种机器学习模型, 对人类来说仍然是一个黑盒. 对模型进行解释有助于我们更好地理解模型, 并判断其可信度. 针对目标检测模型的可解释性问题, 提出将其输出改造为关注每一类物体存在性概率的具体回归问题, 进而提出分析目标检测模型决策依据与可信度的方法. 由于原有图像分割方法的泛用性较差, 解释目标检测模型时, LIME所生成解释的忠诚度较低、有效特征数量较少. 提出使用DeepLab代替LIME的图像分割方法, 以对其进行改进. 改进后的方法可以适用于解释目标检测模型. 实验的对比结果证明了所提出改进方法在解释目标检测模型时的优越性.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号