排序方式: 共有43条查询结果,搜索用时 31 毫秒
1.
一种基于RBF网络提取模糊规则的算法实现 总被引:6,自引:4,他引:2
径向基函数网络和模糊推理系统在一些柔和的情况下具有等价的功能,因此可以利用神经网络的学习算法来调节模糊系统的参数,学习后的模糊系统具有自学习和自组织性,但是削弱了模糊系统的可解释性。将模糊逻辑推理与神经网络控制技术相结合,分析了一种改进的径向基函数(RBF)神经网络结构,这种模糊神经网络结构能够有效地表达模糊系统可解释性这一突出特点,也使模糊系统具有了较好的自学习和自组织能力、通过VC 实现了基于这种RBF网络结构提取模糊规则的算法,并进行了仿真实验,仿真结果表明该算法是比较有效的。 相似文献
2.
3.
推荐系统研究综述 总被引:1,自引:0,他引:1
李斌 《电脑与微电子技术》2014,(2):7-10
近年来,推荐系统得到前所未有的关注和发展。作为电子商务的核心技术,推荐系统在帮助消费者便捷的找到所需的潜在商品同时也促进商品的销售,对于消费者和商品生产者来说都至关重要。推荐系统可以利用用户的行为信息、社交网络信息、标签数据等来提升推荐系统的质量。随着推荐系统的快速发展,如何评价推荐系统以及如何提高推荐系统的可解释性也成为热门的研究课题。从推荐算法、评测指标和可解释性三个部分对推荐系统的研究现状进行分析总结。 相似文献
4.
5.
6.
可解释性能够提高用户对推荐系统的信任度并且提升推荐系统的说服力和透明性,因此有许多工作都致力于实现推荐系统的可解释性。由于评论中包含了丰富的信息,能够体现用户偏好与情感信息,同时包含了对应商品所具有的特性,最近的一些基于评论的深度推荐系统有效地提高了推荐系统的可解释性。这些基于评论的深度推荐系统中内置的注意力机制能够从对应的评论中识别出有用的语义单元(例如词、属性或者评论),而推荐系统通过这些高权重的语义单元做出决策,从而增强推荐系统的可解释性。但可解释性在很多工作中仅作为一个辅助性的子任务,只在一些案例研究中来做出一些定性的比较,来说明推荐系统是具有可解释性的,到目前为止并没有一个能够综合地评估基于评论推荐系统可解释性的方法。本文首先根据在注意力权重计算机制的不同,将这些具有可解释性的基于评论的推荐系统分为三类:基于注意力的推荐系统,基于交互的推荐系统,基于属性的推荐系统,随后选取了五个最先进的基于评论的深度推荐系统,通过推荐系统内置的注意力机制获得的评论权重文档,在三个真实数据集上进行了人工标注,分别量化地评价推荐系统的可解释性。标注的结果表明不同的基于评论的深度推荐系统的可解释性是具有优劣之分的,但当前的基于评论的深度推荐系统都有超过一半的可能性能够捕捉到用户对目标评论的偏好信息。在评估的五个推荐系统中,并没有哪个推荐系统在所有的数据中具有绝对的优势。也就是说,这些推荐系统在推荐可解释性方面是相互补充的。通过进一步的数据分析发现,如果推荐系统具有更精确的分数预测结果,那推荐系统通过注意力机制获得的高权重的信息确实更能够体现用户的偏好或者商品特征,说明推荐系统内置的注意力机制在提高可解释性的同时也能够提高预测精度;并且发现相较于长评论,推荐系统更容易捕捉到较短的评论中的特征信息;而可解释性评分高的推荐系统会更可能地为形容词赋予较高的权重。本文也为推荐系统可解释性评估进一步研究和探索更好的基于评论的推荐系统解决方案提供了一些启示。 相似文献
7.
随着AI、5G、AR/VR等新技术的快速发展,内容类应用如电子商务、社交网络、短视频等层出不穷,导致信息过载问题日益严重。人工智能技术的发展推动了智能算法的爆炸式运用,作为智能算法的一种,推荐算法在大数据、应用场景和计算力的推动下,通过信息过滤技术,为用户提供适应兴趣及行为的个性化及高质量的推荐服务,逐步提高了用户的使用体验、内容分发效率,在一定程度上缓解了信息过载的问题。但推荐算法的潜在偏见、黑盒化特性及内容分发方式也逐渐带来了决策结果不公平性、不可解释性,信息茧房、侵犯用户隐私等安全挑战。如何提高推荐算法的可解释性、公平性、可信程度等越来越受到国内外政府监管部门、产业及学术界的重点关注,推荐系统和推荐算法也由此从发展期进入管制期。为此,本文针对新闻推荐领域,分析推荐算法的稿件画像、用户画像、推荐推送、反馈干预和人工复审等关键要素,围绕推荐算法生态的参与者,如内容生产者、受众、算法模型、新闻平台,从公平性、可解释性和抗抵赖性三个方面提出了一种新闻推荐算法可信评价体系,并进行定量或定性分析。公平性、可解释性和抗抵赖性是正相关关系,当公平性和抗抵赖性越强、可解释程度越高,新闻推荐算法的可信度越高。希望弥补新闻推荐算法领域的可信研究的空白,建立可信推荐算法生态,加速安全推荐系统的建立和推广,同时为智能算法可信研究提供参考,为智能算法的监管和治理提供思路。 相似文献
8.
为了缓解神经网络的“黑盒子”机制引起的算法可解释性低的问题,基于使用证据推理算法的置信规则库推理方法(以下简称RIMER)提出了一个规则推理网络模型.该模型通过RIMER中的置信规则和推理机制提高网络的可解释性.首先证明了基于证据推理的推理函数是可偏导的,保证了算法的可行性;然后,给出了规则推理网络的网络框架和学习算法,利用RIMER中的推理过程作为规则推理网络的前馈过程,以保证网络的可解释性;使用梯度下降法调整规则库中的参数以建立更合理的置信规则库,为了降低学习复杂度,提出了“伪梯度”的概念;最后,通过分类对比实验,分析了所提算法在精确度和可解释性上的优势.实验结果表明,当训练数据集规模较小时,规则推理网络的表现良好,当训练数据规模增大时,规则推理网络的也能达到令人满意的结果. 相似文献
9.
《计算机工程与应用》2020,(2):106-114
推荐系统对筛选有效信息和提高信息获取效率具有重大的意义。传统的推荐系统会面临数据稀松和冷启动等问题。利用外部评分和物品内涵知识相结合,提出一种基于循环知识图谱和协同过滤的电影推荐模型——RKGE-CF。在充分考虑物品、用户、评分之间的相关性后,利用基于物品和用户的协同过滤进行Top-K推荐;将物品的外部附加数据和用户偏好数据加入知识图谱,提取实体相互之间的依赖关系,构建用户和物品之间的交互信息,以便揭示实体与关系之间的语义,帮助理解用户兴趣;将多种推荐结果按不同方法融合进行对比;模型训练时使用多组不同的负样本作为对比,以优化模型;最后利用真实电影数Movielens和IMDB映射连接成新数据集进行测试。实验结果证明该模型对于推荐效果的准确率有显著的提升,同时能更好地解释推荐背后的原因。 相似文献
10.
目的 模式识别中,通常使用大量标注数据和有效的机器学习算法训练分类器应对不确定性问题。然而,这一过程缺乏知识表征和可解释性。认知心理学和实验心理学的研究表明,人类往往不使用代价如此巨大的机制,而是使用表征、归纳、推理、解释和约束传播等与符号主义人工智能方法类似的手段来应对物体识别中的不确定性并提供可解释性。因此本文旨在从传统的符号计算出发,利用骨架拓扑结构表征提供一种可解释性的思路。方法 以骨架树为基本手段来形成物体拓扑结构特征和几何特征的形式化表征,并基于泛化框架对少量同类表征进行知识抽取来形成关于物体类别的知识概括显式化表征。结果 在形成物体类别的概括表征实验中,通过路径重建直观展示了同类属物体上得到的最一般表征的几何物理意义。在可解释性验证实验中,通过跨数据的拓扑应用展示了新测试样本相对于概括表征的特定差异,表明该表征具有良好的可解释性。最后在形状补全的不确定性推理实验中,不仅可以得到识别结论,而且清晰展示了识别背后做出的判断依据,进一步验证了该表征的可解释性。结论 实验表明一般化的形式表征能够应对尺寸、颜色和形状等不确定性问题,本文方法避免了基于纹理特征所带来的不确定性,适用于任意基于基元的表征方式,具有更好的鲁棒性、普适性和可解释性,计算代价更小。 相似文献