首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
基于会话推荐的目标是根据给定的会话预测下一个交互项.针对现有基于会话推荐大多只关注某个用户交互项的连续项来捕获相关信息;以及利用知识图谱提供辅助信息的过程中忽略了多模态知识图中各种数据类型的问题.本文提出多模态知识图的用户微行为的会话模型,将用户微行为和多模态知识纳入基于会话推荐的多任务学习中,用户微行为对项目的建模在微观行为级别上,使用一系列项目操作对来充分捕获会话中的用户意图.提出多模态知识图注意力网络,通过使用多模态图注意机制进行信息传播,将得到的聚集嵌入表示进行推荐.考虑候选项目信息来平衡局部和全局表示的门控模块,门控模块利用多层感知器层对候选项目、最近交互项目和每个用户的全局偏好之间的关系进行建模来计算权重.在两个基准数据集的实验结果表明,本文所提模型优于最新基于会话的推荐,有利于提升推荐的准确率.  相似文献   

2.
近年来,基于会话推荐系统(session-based recommender system,SRS)的应用和研究是推荐系统的一个热门方向。如何利用用户会话信息进一步提升用户满意度和推荐精确度,是基于会话推荐系统的主要任务。目前大多数SBR模型仅基于目标会话对用户偏好建模,忽略了来自其他会话的物品转换信息,导致无法全面了解用户偏好。为了解决其局限性,提出融合全局上下文信息注意力增强的图神经网络模型(global context information graph neural networks for session-based recommendation,GCI-GNN)。该模型利用所有会话上的物品转换关系,更准确地获取用户偏好。具体而言,GCI-GNN从目标会话和全局会话学习物品向量表示。使用位置感知注意网络,将反向位置信息纳入物品嵌入中。考虑会话长度信息学习用户表示进而达到更有效的推荐。在Diginetica和Yoochoose数据集上进行实验,实验结果表明,相对最优的基准模型,GCI-GNN模型在Diginetica数据集各项指标上的提高超过2个百分点,在Yoochoose数据...  相似文献   

3.
现有基于会话的推荐算法主要通过挖掘单个目标会话的项目转换关系进行推荐,对来自其他不同会话中项目之间的复杂转换信息考虑较少。为此,提出一种融合全局和近邻协同信息的会话推荐算法SFGN-GNN,同时考虑来自全局与近邻会话的协同信息,以充分挖掘用户偏好。通过学习会话表示来表达用户偏好,先按目标会话与近邻会话的成对项目转移关系构建近邻图,依据所有会话中的成对项目转移关系构建全局图,再利用图神经网络获取目标会话节点近邻级和全局级的项目表示,采用融合门融合得到会话级项目表示,并在其中嵌入项目在目标会话中的位置信息和时间信息,然后通过软注意力机制得到最终的会话表示,最后经过softmax函数预测下一个可能交互的项目。在两个数据集上的实验验证了SFGN-GNN算法有效性。  相似文献   

4.
任俊伟  曾诚  肖丝雨  乔金霞  何鹏 《计算机应用》2021,41(11):3164-3170
基于会话的推荐旨在根据当前用户的匿名会话的点击序列信息来预测用户的下一次点击行为。现有方法多数都是通过对用户会话点击序列的物品信息进行建模,并学习物品的向量表示,进而进行推荐。而作为一种粗粒度的信息,物品的类别信息对物品有聚合作用,可作为物品信息的重要补充。基于此,提出了基于会话的多粒度图神经网络推荐模型(SRMGNN)。首先,使用图神经网络(GNN)得到会话序列中的物品和物品类别的嵌入向量表示,并使用注意力网络捕捉用户的注意力信息;然后,将赋予了不同注意力权重值的物品和物品类别信息进行融合后,输入到门限循环单元(GRU)里;最后,通过GRU学习会话序列的物品时序信息,并给出推荐列表。在公开的Yoochoose数据集和Diginetica数据集上进行实验,实验结果验证了该模型在增加了物品类别信息后的优势,且实验结果表明了在Precision@20和MRR@20这2种评价指标上,该模型相较于短期注意力/记忆优先级(STAMP)模型、神经注意力(NARM)模型、GRU4REC等8种模型均有更好的效果。  相似文献   

5.
基于会话的推荐旨在基于会话内数据,为匿名或未登录用户做出推荐.现有的研究工作通常仅以会话中单个商品作为最小单位进行建模,忽略商品在不同感受野下的表征.同时,尚未挖掘会话序列中蕴含的商品隐式主题信息.为了缓解上述问题,文中提出主题增强的多层次图神经网络会话推荐模型(Topic-Enhanced Multi-level Graph Neural Network for Session-Based Recommendation, TEMGNN).首先,设计多层次商品嵌入学习模块,拓宽商品的感受野,获取不同粒度下的商品表示.然后,结合文中提出的多层次图神经网络进行同粒度和跨粒度下的商品信息传播,捕获更丰富的商品嵌入表征.此外,提出商品主题学习模块,在不依赖任何商品属性信息的前提下,抽取商品在隐空间下的主题共性,并以显式的向量空间投影方式自动形成商品的主题表示,用于增强模型推荐性能.在3个基准数据集上的实验表明,TEMGNN的表现较优.  相似文献   

6.
当前先进的会话推荐算法主要通过图神经网络从全局和目标会话中挖掘项目的成对转换关系,并将目标会话压缩成固定的向量表示,忽略了项目间复杂的高阶信息和目标项目对用户偏好多样性的影响。为此提出了基于超图卷积网络和目标多意图感知的会话推荐算法HCN-TMP。通过学习会话表示来表达用户偏好,首先依据目标会话构建会话图,依据全局会话构建超图,通过意图解纠缠技术将原有反映用户耦合意图的项目嵌入表示转换为项目多因素嵌入表示,再经图注意力网络和超图卷积网络分别学习目标会话节点的会话级和全局级项目表示,并使用距离相关性损失函数增强多因素嵌入块间的独立性;然后嵌入目标会话中节点位置信息,加权每个节点的注意力权重,得到全局级和会话级会话表示;利用对比学习最大化两者互信息,经目标多意图感知,针对不同的目标项目自适应地学习目标会话中多意图的用户偏好,得到目标感知级会话表示,最后线性融合三个级别的会话表示得到最终的会话表示。在Tmall和Nowplaying两个公开数据集上进行大量实验,实验结果验证了HCN-TMP算法的有效性。  相似文献   

7.
基于会话的推荐旨在利用匿名会话预测用户行为。现有基于图神经网络(GNN)的会话推荐算法大多仅针对当前会话提取用户偏好,却忽略了来自其他会话的高阶多元关系从而影响推荐精度。此外,由于会话推荐所采用的短时交互序列包含的信息非常有限,使其更容易受到数据稀疏性的影响。针对上述问题,提出了自监督混合图神经网络会话推荐模型(SHGN)。该模型首先通过将原始数据构建为三个视图来描述会话与物品关系,然后通过多头图注意力网络捕获会话内部物品的低阶转换信息,提出了残差图卷积网络捕获物品和会话的高阶转换信息;最后融合自监督学习(SSL)作为辅助任务,通过最大化不同通道学习到的会话嵌入的互信息,对原始数据进行数据增强从而提升推荐性能。为了验证该方法的有效性,在Tmall、Diginetica、Nowplaying、Yoochoose四个基准数据集上与SR-GNN、GCE-GNN、DHCN等主流基线模型进行了对比实验,实验结果在P@20、MRR@20等性能指标上均取得了一定提升。  相似文献   

8.
现有自监督社交推荐模型大多通过人工启发式图增强和单一关系视图间对比的策略构建自监督信号,性能受到增强自监督信号质量的影响,难以自适应地抑制噪声.由此,文中提出基于自监督图掩码神经网络的社交推荐模型.首先,分别构建用户社交和物品分类的单一关系视图及高阶连通异构图,采用图掩码学习范式指导用户社交图进行自适应和可学习的数据增强.然后,设计异构图编码器,学习视图中的潜在语义,跨视图对用户、物品嵌入进行对比学习,完成自监督任务,分别对用户、物品嵌入进行加权融合,完成推荐任务.最后,利用多任务训练策略联合优化自监督学习任务、推荐任务和图掩码任务.在3个真实数据集上的实验表明文中模型性能具有一定提升.  相似文献   

9.
基于GCN的协同过滤模型通过用户物品交互二部图上的信息聚合过程生成用户节点和物品节点的表示,预测用户对物品的偏好。然而,这些模型大多没有考虑用户不同的交互意图,无法充分挖掘用户与物品之间的关系。已有的图解耦协同过滤模型建模了用户的交互意图,却忽略了图全局信息,没有考虑用户节点和物品节点的本质特征,造成表示语义不完整;并且由于受到模型迭代结构的影响,意图解耦学习的过程并不高效。针对上述问题,设计了结合全局信息的深度图解耦协同过滤模型G2DCF(Global Graph Disentangled Collaborative Filtering)。该模型构建了图全局通道和图解耦通道,分别学习节点的本质特征和意图特征;通过引入正交约束和表示独立性约束,使用户-物品的交互意图尽可能唯一防止意图退化,同时提高不同意图下表示的独立性,提升模型的解耦效果。对比已有的图协同过滤模型,G2DCF能更综合地刻画用户特征和物品特征。在3个公开数据集上进行了实验,结果表明G2DCF在多个评价指标上优于对比方法;分析了表示分布的表示独立性和表示均匀性,验证了模型的解耦效果;同时从收敛速度上进行了对比,验证了模型的...  相似文献   

10.
自推荐系统出现以来,有限的数据信息就一直制约着推荐算法的进一步发展。为降低数据稀疏性的影响,增强非评分数据的利用率,基于神经网络的文本推荐模型相继被提出,但主流的卷积或循环神经网络在文本语义理解和长距离关系捕捉方面存在明显劣势。为了更好地挖掘用户与商品之间的深层潜在特征,进一步提高推荐质量,提出一种基于Ro BERTa和图增强Transformer的序列推荐(RGT)模型。引入评论文本数据,首先利用预训练的Ro BERTa模型捕获评论文本中的字词语义特征,初步建模用户的个性化兴趣,然后根据用户与商品的历史交互信息,构建具有时序特性的商品关联图注意力机制网络模型,通过图增强Transformer的方法将图模型学习到的各个商品的特征表示以序列的形式输入Transformer编码层,最后将得到的输出向量与之前捕获的语义表征以及计算得到的商品关联图的全图表征输入全连接层,以捕获用户全局的兴趣偏好,实现用户对商品的预测评分。在3组真实亚马逊公开数据集上的实验结果表明,与Deep FM、Conv MF等经典文本推荐模型相比,RGT模型在均方根误差(RMSE)和平均绝对误差(MAE)2种指标上有显著...  相似文献   

11.
为解决基于循环神经网络(RNN)会话推荐方法的兴趣偏好表示不全面、不准确问题,提出基于图模型和注意力模型的会话推荐(SR-GM-AM)方法。首先,图模型利用全局图和会话图分别获取邻域信息和会话信息,并且利用图神经网络(GNN)提取项目图特征,项目图特征经过全局项目表示层和会话项目表示层得到全局级嵌入和会话级嵌入,两种级别嵌入结合生成图嵌入;然后,注意力模型使用软注意力进行图嵌入和反向位置嵌入融合,目标注意力激活目标项目相关性,注意力模型通过线性转换生成会话嵌入;最后,SR-GM-AM经过预测层,输出下次点击的N项推荐列表。在两个真实的公共电子商务数据集Yoochoose和Diginetica上对比了SR-GM-AM方法与基于无损边缘保留聚合和快捷图注意力的推荐(LESSR)方法,结果显示,SR-GM-AM方法的P@20最高达到了72.41%,MRR@20最高达到了35.34%,验证了SR-GM-AM的有效性。  相似文献   

12.
知识图谱问答是自然语言处理领域的研究热点之一,近年来受到广泛的关注。知识图谱问答面临需要结合多条三元组进行推理的多跳问题以及知识图谱不完整等挑战,为解决这些问题,提出了一种融合知识表示学习的双向注意力模型(Bidirectional Attention model combining Knowledge Representation,KR-BAT)。引入知识表示学习以提高模型全局建模能力,应对知识图谱不完整的情况;使用双向注意力模型捕捉候选答案和问题间丰富的交互信息,经过分析推理给出答案。在MetaQA数据集上进行了实验,对比VRN、KV-MemNN、GraftNet等基准模型,在完整知识图谱上达到了非常有竞争力的性能,在不完整知识图谱上大幅度优于基准模型。  相似文献   

13.
在基于会话的推荐中,图神经网络及其改进模型将会话内复杂的交互关系建模为图结构并从中捕获项目特征,是现有推荐模型中性能较好的一类方法。然而大多数模型都忽略了不同会话之间可能存在的有效信息,仅对当前会话建模难以利用其他会话,也无法发挥邻域信息的辅助作用。因此提出基于邻域感知图神经网络的会话推荐(NA-GNN)。该模型构建会话层和全局邻域层的图结构捕获项目表示,结合注意力机制聚合两种项目表征,将会话序列之间的互信息最大化地结合到网络训练中。在真实的数据集Yoochoose和Diginetica上进行实验,与性能最优的基准模型相比,模型P@20在Yoochoose上提高了1.85%,在Diginetica上提升了7.19%;MRR@20分别提升了0.48%和8.36%,证明模型的有效性和合理性。  相似文献   

14.
现有基于神经网络的多标签文本分类研究方法存在两方面不足,一是不能全面提取文本信息特征,二是很少从图结构数据中挖掘全局标签之间的关联性。针对以上两个问题,提出融合卷积神经网络-自注意力机制(CNNSAM)与图注意力网络(GAT)的多标签文本分类模型(CS-GAT)。该模型利用多层卷积神经网络与自注意力机制充分提取文本局部与全局信息并进行融合,得到更为全面的特征向量表示;同时将不同文本标签之间的关联性转变为具有全局信息的边加权图,利用多层图注意力机制自动学习不同标签之间的关联程度,将其与文本上下文语义信息进行交互,获取具有文本语义联系的全局标签信息表示;使用自适应融合策略进一步提取两者特征信息,提高模型的泛化能力。在AAPD、RCV1-V2与EUR-Lex三个公开英文数据集上的实验结果表明,该模型所达到的多标签分类效果明显优于其他主流基线模型。  相似文献   

15.
基于会话的推荐方法旨在根据匿名用户行为序列预测下一个项目。然而,现有会话推荐方法多基于当前会话建模用户偏好,忽略了会话间蕴含的语义信息及知识图谱中丰富的实体和关系信息,无法有效缓解数据稀疏性的问题。提出一种基于跨会话信息与知识图谱的图注意力网络推荐方法。通过有效整合跨会话信息和知识图谱中的项目知识构建跨会话知识图谱,利用知识感知的注意力机制计算各邻居节点的重要性分数,以更新项目节点表示,采用门控循环单元和图注意力网络将每个会话表示为该会话的当前偏好和全局偏好的组合。在此基础上,将会话嵌入和项目嵌入拼接后输入到多层感知机,得到目标会话和候选项目的预测分数,从而实现会话推荐。实验结果表明,与GRU4REC、SR-GNN、FGNN等方法相比,该方法在KKBOX和JDATA两个真实数据集上的推荐命中率分别至少提高了8.23和2.41个百分点,能有效增强会话推荐性能。  相似文献   

16.
刘啸  杨敏 《集成技术》2022,11(2):67-78
近年来,基于深度学习的机器阅读理解模型研究取得显著进展,但这些模型在全局语义关系构建以及较长距离推理上仍有显著缺陷,在对段落文本进行推理时,大多只把文本信息看作词的序列,而没有探索词与词之间丰富的语义关系。为了解决上述问题,该文提出一种新的基于动态图神经网络的会话式机器阅读理解模型。首先,提取文本中的实体,使用句法结构与句子之间的语义关系进行建模;然后通过语义融合模块,将基于序列化结构得到的上下文嵌入表示与基于图结构得到的实体节点嵌入表示进行融合;最终使用图神经网络实现对答案的预测。同时,该模型可在每轮对话过程中动态地构建问题和会话历史的推理图,能有效地捕捉对话中的语义结构信息和会话历史流程。实验结果表明,在两个最近提出的会话挑战(CoQA和QuAC)上表现了出色的性能。  相似文献   

17.
目前基于神经网络的方面级情感分类模型很少会考虑上下文单词与方面词之间的句法依存关系,可能会错误地将与方面词语法无关的上下文单词作为方面词的情感特征;另一方面大多数方法也忽略了上下文与方面词之间的交互信息。针对这两个问题,提出了基于双向图卷积网络(BiGCN)和交互注意力机制(IAM)的方面级情感分类模型(BiGCN-IAM),该模型在句法依存树上使用双向图卷积网络提取上下文单词和方面词之间的句法依存关系,然后使用掩码层得到特定的方面词表示;最后使用交互注意力机制学习上下文与方面词之间的交互信息,同时提取了上下文中的重要情感特征和方面词中对分类有贡献的特征。通过在五个公开数据集上的实验证明,该模型效果优于基线模型。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号