首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 365 毫秒
1.
近年来,基于会话推荐系统(session-based recommender system,SRS)的应用和研究是推荐系统的一个热门方向。如何利用用户会话信息进一步提升用户满意度和推荐精确度,是基于会话推荐系统的主要任务。目前大多数SBR模型仅基于目标会话对用户偏好建模,忽略了来自其他会话的物品转换信息,导致无法全面了解用户偏好。为了解决其局限性,提出融合全局上下文信息注意力增强的图神经网络模型(global context information graph neural networks for session-based recommendation,GCI-GNN)。该模型利用所有会话上的物品转换关系,更准确地获取用户偏好。具体而言,GCI-GNN从目标会话和全局会话学习物品向量表示。使用位置感知注意网络,将反向位置信息纳入物品嵌入中。考虑会话长度信息学习用户表示进而达到更有效的推荐。在Diginetica和Yoochoose数据集上进行实验,实验结果表明,相对最优的基准模型,GCI-GNN模型在Diginetica数据集各项指标上的提高超过2个百分点,在Yoochoose数据集上,GCI-GNN模型在各项指标上的提高超过1个百分点,验证了GCI-GNN模型的有效性。  相似文献   

2.
为了解决会话推荐系统中数据稀疏性问题, 提出了一种基于注意力机制的自监督图卷积会话推荐模型(self-supervised graph convolution session recommendation based on attention mechanism, ATSGCN). 该模型将会话序列构建成3个不同的视图: 超图视图、项目视图和会话视图, 显示会话的高阶和低阶连接关系; 其次, 超图视图使用超图卷积网络来捕获会话中项目之间的高阶成对关系, 项目视图和会话视图分别使用图卷积网络和注意力机制来捕获项目和会话级别局部数据中的低阶连接信息; 最后, 通过自监督学习使两个编码器学习到的会话表示之间的互信息最大化, 从而有效提升推荐性能. 在Nowplaying和Diginetica两个公开数据集上进行对比实验, 实验结果表明, 所提模型性能优于基线模型.  相似文献   

3.
基于会话的推荐方法由于短期用户交互数据有限,与传统推荐方法相比,其性能更容易受到数据稀疏性问题的影响。为增强会话数据以缓解数据稀疏对会话推荐性能的影响,提出一种结合自监督学习的图神经网络会话推荐(Ss-GNN)模型。构建会话图并建立基于图注意力网络的会话推荐任务来获取项目级表示和会话级表示;从会话级表示的角度出发,利用用户的一般兴趣和当前兴趣来构建辅助任务获取自监督信号;利用自监督学习实现推荐任务和辅助任务之间的互信息最大化,以增强会话数据,从而提升推荐性能。在Yoochoose和Tmall两个公开数据集上进行实验,与基线模型相比,提出的模型在Yoochoose上P@20和MRR@20至少提升了0.94%和0.79%,在Tmall上P@20和MRR@20至少提升了9.61%和4.67%,证明了Ss-GNN模型的有效性。  相似文献   

4.
任俊伟  曾诚  肖丝雨  乔金霞  何鹏 《计算机应用》2021,41(11):3164-3170
基于会话的推荐旨在根据当前用户的匿名会话的点击序列信息来预测用户的下一次点击行为。现有方法多数都是通过对用户会话点击序列的物品信息进行建模,并学习物品的向量表示,进而进行推荐。而作为一种粗粒度的信息,物品的类别信息对物品有聚合作用,可作为物品信息的重要补充。基于此,提出了基于会话的多粒度图神经网络推荐模型(SRMGNN)。首先,使用图神经网络(GNN)得到会话序列中的物品和物品类别的嵌入向量表示,并使用注意力网络捕捉用户的注意力信息;然后,将赋予了不同注意力权重值的物品和物品类别信息进行融合后,输入到门限循环单元(GRU)里;最后,通过GRU学习会话序列的物品时序信息,并给出推荐列表。在公开的Yoochoose数据集和Diginetica数据集上进行实验,实验结果验证了该模型在增加了物品类别信息后的优势,且实验结果表明了在Precision@20和MRR@20这2种评价指标上,该模型相较于短期注意力/记忆优先级(STAMP)模型、神经注意力(NARM)模型、GRU4REC等8种模型均有更好的效果。  相似文献   

5.
针对现有的会话型推荐模型难以从简短的会话中捕获项目之间的依赖关系的问题,在考虑了复杂的项目交互和动态的用户兴趣变化后,提出了一种基于会话型推荐的改进胶囊网络(SR-ECN)模型。首先,利用图神经网络(GNN)处理会话序列数据,以得到每个项目嵌入向量;然后,利用胶囊网络的动态路由机制,从交互历史中聚合高级用户的偏好;此外,所提模型引入自注意力网络进一步考虑用户和项目的潜在信息,从而为用户推荐更合适的项目。实验结果表明,在Yoochoose数据集上,所提模型的召回率和平均倒数排名(MRR)均优于SR-GNN(Session-based Recommendation with GNN)、TAGNN(Target Attentive GNN)等所有对比模型,与基于无损边缘保留聚合和快捷图注意力的推荐(LESSR)模型相比,所提模型的召回率和MRR分别提升了0.92和0.45个百分点,验证了改进胶囊网络对用户兴趣偏好提取的有效性。  相似文献   

6.
现有自监督社交推荐模型大多通过人工启发式图增强和单一关系视图间对比的策略构建自监督信号,性能受到增强自监督信号质量的影响,难以自适应地抑制噪声.由此,文中提出基于自监督图掩码神经网络的社交推荐模型.首先,分别构建用户社交和物品分类的单一关系视图及高阶连通异构图,采用图掩码学习范式指导用户社交图进行自适应和可学习的数据增强.然后,设计异构图编码器,学习视图中的潜在语义,跨视图对用户、物品嵌入进行对比学习,完成自监督任务,分别对用户、物品嵌入进行加权融合,完成推荐任务.最后,利用多任务训练策略联合优化自监督学习任务、推荐任务和图掩码任务.在3个真实数据集上的实验表明文中模型性能具有一定提升.  相似文献   

7.
孙轩宇  史艳翠 《计算机应用》2023,(12):3689-3696
针对现有的会话推荐模型难以显式地表示项目对推荐结果的影响的问题,提出一种融合项目影响力的图神经网络会话推荐模型(SR-II)。首先,提出一种新的边权重计算方法,将计算结果作为图结构中转移关系的影响力权重,并用图神经网络(GNN)的影响力图门控层提取该图的特征;其次,提出改进的捷径图连接有关联的项目,有效捕获远程依赖,丰富图结构所能表达的信息,并通过注意力机制的捷径图注意力层提取该图的特征;最后,通过结合上述两层,构建推荐模型。在Diginetica和Gowalla数据集上的实验结果中,SR-II的HR@20最高达到53.12%,MRR@20最高达到25.79%。在Diginetica数据集上,相较于同一表征空间下基于训练模型的会话推荐(CORE-trm),SR-II在HR@20上提升了1.10%,在MRR@20上提升了1.21%。在Gowalla数据集上,相较于基于会话的自注意网络推荐(SR-SAN),SR-II在HR@20上提升了1.73%;相较于基于无损边缘保留聚合和捷径图注意力的推荐(LESSR)模型,SR-II在MRR@20上提升了1.14%。实验结果表明SR-II的推荐效果优...  相似文献   

8.
会话推荐立足于目标用户的当前会话,根据项目类别、跨会话的上下文信息、多种用户行为等辅助信息学习项目间的依赖关系,从而捕捉用户的长短期偏好进行个性化推荐。近年来,流行的深度学习系列方法已经成为会话型推荐系统这个研究热点的前沿方法,尤其是图神经网络的引入,使会话推荐系统的性能得到了进一步提升。鉴于此,该综述从问题定义与会话推荐因素出发,从构图方面进行分析;将相关工作分为基于图卷积网络、门控图神经网络、图注意力网络和其他图神经网络架构的会话推荐系统,并进行归纳与对比;对各工作实验部分中的损失函数类别、所选用的数据集和模型性能评估指标三方面进行深入分析。重点从算法原理和性能分析两方面对各模型框架进行评估和梳理,旨在对近五年基于图神经网络的会话推荐系统相关工作进行评述、总结与展望。  相似文献   

9.
基于会话的推荐旨在根据匿名用户的短期交互数据来预测用户下一次交互项目. 现有图神经网络会话推荐模型大多在信息传播过程中平等对待所有邻居节点, 而没有区分他们对于中心节点的重要性, 从而给模型训练引入噪声. 此外, 随着图神经网络层数的增加, 过度平滑问题会随之产生. 针对上述问题, 本文提出结合跳跃连接的多层图注意力网络会话推荐模型(MGATSC). 首先利用图注意力网络学习邻居节点对于中心节点的重要性, 并堆叠多层网络以获取高阶邻居信息; 然后为了缓解过度平滑问题, 采用基于残差注意力机制的跳跃连接更新每层网络的节点嵌入, 并通过平均池化得到最终节点嵌入. 最后将反向位置嵌入融合到节点嵌入中, 经过预测层生成推荐. 在Tmall、Diginetica以及Retailrocket这3个公开数据集上的实验结果表明所提模型优于所有基线模型, 验证了模型的有效性与合理性.  相似文献   

10.
在基于会话的推荐中,图神经网络及其改进模型将会话内复杂的交互关系建模为图结构并从中捕获项目特征,是现有推荐模型中性能较好的一类方法。然而大多数模型都忽略了不同会话之间可能存在的有效信息,仅对当前会话建模难以利用其他会话,也无法发挥邻域信息的辅助作用。因此提出基于邻域感知图神经网络的会话推荐(NA-GNN)。该模型构建会话层和全局邻域层的图结构捕获项目表示,结合注意力机制聚合两种项目表征,将会话序列之间的互信息最大化地结合到网络训练中。在真实的数据集Yoochoose和Diginetica上进行实验,与性能最优的基准模型相比,模型P@20在Yoochoose上提高了1.85%,在Diginetica上提升了7.19%;MRR@20分别提升了0.48%和8.36%,证明模型的有效性和合理性。  相似文献   

11.
知识图谱(KG)能够缓解协同过滤算法存在的数据稀疏和冷启动问题,在推荐领域被广泛地研究和应用。现有的很多基于KG的推荐模型混淆了用户物品二部图中的协同过滤信息和KG中实体间的关联信息,导致学习到的用户向量和物品向量无法准确表达其特征,甚至引入与用户、物品无关的信息从而干扰推荐。针对上述问题提出一种融合协同信息的知识图注意力网络(KGANCF)。首先,为了避免KG实体信息的干扰,网络的协同过滤层从用户物品二部图中挖掘出用户和物品的协同过滤信息;然后,在知识图注意力嵌入层中应用图注意力机制,从KG中继续提取与用户和物品密切相关的属性信息;最后,在预测层将用户物品的协同过滤信息和KG中的属性信息融合,得到用户和物品最终向量表示,进而预测用户对物品的评分。在MovieLens-20M和Last.FM数据集上进行了实验,与协同知识感知注意力网络(CKAN)相比,KGANCF在MovieLens-20M数据集上的F1分数提升了1.1个百分点,曲线下面积(AUC)提升了0.6个百分点;而在KG相对稀疏的Last.FM数据集上,模型的F1分数提升了3.3个百分点,AUC提升了8.5个百分点。实验结果表明,KGANCF能够有效提高推荐结果的准确度,在KG稀疏的数据集上显著优于协同知识嵌入(CKE)、知识图谱卷积网络(KGCN)、知识图注意网络(KGAT)和CKAN模型。  相似文献   

12.
在电商场景中,用户面对繁杂的商品时往往难以快速检索到所需商品,而基于会话的商品推荐能通过学习用户短期兴趣从而为其推荐可能感兴趣的商品,因此基于会话的推荐研究具有显著的理论和应用研究价值。已有的会话推荐算法大多关注于利用全局图中的信息来增强会话图中的表征学习,而忽略了会话图和全局图上物品表征之间的交互关系。该文提出一种通过交互注意力和改进参数自适应策略增强的图神经网络商品会话推荐模型。交互注意层通过提取强相关信息来修正全局图和会话图中的商品表示,而参数自适应层则通过改进参数自适应策略动态权重调整以获得物品的最终表示进而用于预测。实验结果表明,该文所提出的模型在Tmall数据集上显著优于对比模型。  相似文献   

13.
虽然基于循环神经网络(RNN)的会话推荐算法可以有效地对会话中的长期依赖关系进行建模,并且可以结合注意力机制来刻画用户在会话中的主要目的,但它在进行会话建模的过程中无法绕过与用户主要目的不相关的物品,易受其影响以致降低推荐精度。针对上述问题,设计了成对编码方案来将原始输入序列嵌入向量转化为一个三维张量表示,使得非相邻的行为也能够产生联系。通过二维卷积神经网络(CNN)来处理该张量以捕获非相邻物品间的联系,并提出了引入用于会话推荐的二维卷积神经网络的神经注意力推荐机(COS-NARM)模型。该模型能有效跳过序列中与用户主要目的不相关的物品。实验结果表明,COS-NARM模型在DIGINETICA等多个真实数据集上的召回率和平均倒数排名(MRR)都得到了不同程度的提升,且优于NARM、GRU-4Rec+等所有基线模型。在上述研究的基础上,将欧氏距离引入COS-NARM模型,提出了OCOS-NARM模型。利用欧氏距离直接计算不同时刻兴趣间的相似度以减少模型的参数,降低模型的复杂度。实验结果表明,欧氏距离的引入不仅使得OCOS-NARM模型在DIGINETICA等多个真实数据集上的推荐效果得到了进一步的提升,而且使OCOS-NARM模型的训练时间相较COS-NARM模型缩短了14.84%,有效提高了模型的训练速度。  相似文献   

14.
为消除噪声、充分使用邻域信息并考虑用户动态兴趣,提出一种融合BiGRU和记忆网络的会话推荐模型。使用BiGRU捕获会话总体特征,使用另一个加入缩放点积自注意力的BiGRU消除噪声项的干扰并捕获细粒度的用户兴趣,使用记忆网络通过邻域会话信息预测当前的会话意图,改进融合选通门进行特征融合并计算每个候选项的推荐分数。通过在两个数据集上的实验,验证了该模型能够准确预测用户意图,提高推荐效果。  相似文献   

15.
针对基于会话的推荐算法主要依赖目标会话中的信息,而未充分利用其他会话中的协同信息的问题,提出了一种基于多图神经网络的会话感知推荐(MGSP)模型。首先,根据目标会话与训练集中的所有会话构建物品转移图(ITG)和协同关联图(CRG),并基于这两张图应用图神经网络(GNN)来汇聚节点的信息,得到两类的节点表示;然后,经过双层注意力模块对两类节点表示建模,获取会话级别的表示;最后,使用注意力机制进行信息融合,得到最终的会话表示,并预测下一个交互物品。分别在电商和民航两个场景下进行了对比实验,实验结果表明,相较最优的基准模型,MGSP模型在电商数据集各项指标上的提高超过1个百分点,在民航数据集各项指标上的提高约为3个百分点,验证了MGSP模型的有效性。  相似文献   

16.
基于图神经网络的会话推荐(简称图神经会话推荐)是近年来推荐系统领域的一个研究重点和热点,这主要是因为它们引入了会话图拓扑结构信息来提高物品和会话特征表示的准确性,因而,在一定程度上提升了会话推荐的性能.然而,现有图神经会话推荐方法仍然存在两方面的不足,从而影响其性能:1)它们所构建的会话图中物品间的相关性权重均是在模型...  相似文献   

17.
何昊晨  张丹红 《计算机应用》2020,40(10):2795-2803
社会化推荐系统通过用户的社会属性信息能缓解推荐系统中数据稀疏性和冷启动问题,从而提高推荐系统的精度。然而大多数社会化推荐方法主要针对单一的社交网络,或对多个社交网络进行线性叠加,使得用户社会属性难以充分参与计算,因而推荐的精度有限。针对该问题,提出一种多重网络嵌入的图形神经网络模型来实现复杂多维社交网络下的推荐,该模型构建了统一的方法来融合用户-物品、用户-用户等各种关系构成的多维复杂网络,通过注意力机制聚合不同类型的多邻居对节点生成作出贡献,并将多个图神经网络进行组合,从而构建了多维社交关系下的图神经网络推荐框架。这种方法通过拓扑结构直接反映推荐系统中实体及其相互间关系,直接在图上对相关信息进行不断更新计算,具有很强的归纳性,有效避免了传统推荐方法中信息利用不完全的问题。通过与相关的社会推荐算法进行比较,实验结果表明,所提方法在均方根误差(RMSE)和平均绝对误差(MAE)等推荐精度指标上有所改善,甚至在数据稀疏情况下也有良好的精度。  相似文献   

18.
基于会话推荐的目标是根据给定的会话预测下一个交互项.针对现有基于会话推荐大多只关注某个用户交互项的连续项来捕获相关信息;以及利用知识图谱提供辅助信息的过程中忽略了多模态知识图中各种数据类型的问题.本文提出多模态知识图的用户微行为的会话模型,将用户微行为和多模态知识纳入基于会话推荐的多任务学习中,用户微行为对项目的建模在微观行为级别上,使用一系列项目操作对来充分捕获会话中的用户意图.提出多模态知识图注意力网络,通过使用多模态图注意机制进行信息传播,将得到的聚集嵌入表示进行推荐.考虑候选项目信息来平衡局部和全局表示的门控模块,门控模块利用多层感知器层对候选项目、最近交互项目和每个用户的全局偏好之间的关系进行建模来计算权重.在两个基准数据集的实验结果表明,本文所提模型优于最新基于会话的推荐,有利于提升推荐的准确率.  相似文献   

19.
何昊晨  张丹红 《计算机应用》2005,40(10):2795-2803
社会化推荐系统通过用户的社会属性信息能缓解推荐系统中数据稀疏性和冷启动问题,从而提高推荐系统的精度。然而大多数社会化推荐方法主要针对单一的社交网络,或对多个社交网络进行线性叠加,使得用户社会属性难以充分参与计算,因而推荐的精度有限。针对该问题,提出一种多重网络嵌入的图形神经网络模型来实现复杂多维社交网络下的推荐,该模型构建了统一的方法来融合用户-物品、用户-用户等各种关系构成的多维复杂网络,通过注意力机制聚合不同类型的多邻居对节点生成作出贡献,并将多个图神经网络进行组合,从而构建了多维社交关系下的图神经网络推荐框架。这种方法通过拓扑结构直接反映推荐系统中实体及其相互间关系,直接在图上对相关信息进行不断更新计算,具有很强的归纳性,有效避免了传统推荐方法中信息利用不完全的问题。通过与相关的社会推荐算法进行比较,实验结果表明,所提方法在均方根误差(RMSE)和平均绝对误差(MAE)等推荐精度指标上有所改善,甚至在数据稀疏情况下也有良好的精度。  相似文献   

20.
基于深度学习的推荐算法最初以用户和物品的ID信息作为输入,但是ID无法很好地表现用户与物品的特征。在原始数据中,用户对物品的评分数据在一定程度上能表现出用户和物品的特征,但是未考虑用户的评分偏好以及物品的热门程度。在评分任务中使用隐式反馈和ID信息作为用户与物品的特征,在消除用户主观性对特征造成的噪声的同时在一定程度上缓解冷启动问题,利用单层神经网络对原始高维稀疏特征降维,使用特征交叉得到用户与物品的低阶交互,再利用神经网络捕获用户与物品的高阶交互,有效提取了特征间的高低阶交互。在四个公开数据集上的实验表明,该算法能有效提高推荐精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号