首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为解决现有的会话模型方案都只基于局部会话信息而没有充分考虑全局会话信息的问题,提出一种基于自注意力和位置感知图模型的会话推荐。利用图神经网络构建会话图,利用位置感知注意力建模会话图的一阶邻居信息,引入反向位置嵌入赋予不同项目不同的权重,通过软注意机制获得局部会话表示;利用自注意力机制自适应地捕捉会话的全局依赖;将全局会话与局部会话相结合生成最终会话表示。对3个真实数据集进行实验,模型在3个数据集上P@20分别提升了1.2%、4.3%和12.9%,MRR@20分别提升了2.3%、5.4%和14.3%,验证了所提模型的有效性。  相似文献   

2.
为解决基于循环神经网络(RNN)会话推荐方法的兴趣偏好表示不全面、不准确问题,提出基于图模型和注意力模型的会话推荐(SR-GM-AM)方法。首先,图模型利用全局图和会话图分别获取邻域信息和会话信息,并且利用图神经网络(GNN)提取项目图特征,项目图特征经过全局项目表示层和会话项目表示层得到全局级嵌入和会话级嵌入,两种级别嵌入结合生成图嵌入;然后,注意力模型使用软注意力进行图嵌入和反向位置嵌入融合,目标注意力激活目标项目相关性,注意力模型通过线性转换生成会话嵌入;最后,SR-GM-AM经过预测层,输出下次点击的N项推荐列表。在两个真实的公共电子商务数据集Yoochoose和Diginetica上对比了SR-GM-AM方法与基于无损边缘保留聚合和快捷图注意力的推荐(LESSR)方法,结果显示,SR-GM-AM方法的P@20最高达到了72.41%,MRR@20最高达到了35.34%,验证了SR-GM-AM的有效性。  相似文献   

3.
基于会话的推荐方法由于短期用户交互数据有限,与传统推荐方法相比,其性能更容易受到数据稀疏性问题的影响。为增强会话数据以缓解数据稀疏对会话推荐性能的影响,提出一种结合自监督学习的图神经网络会话推荐(Ss-GNN)模型。构建会话图并建立基于图注意力网络的会话推荐任务来获取项目级表示和会话级表示;从会话级表示的角度出发,利用用户的一般兴趣和当前兴趣来构建辅助任务获取自监督信号;利用自监督学习实现推荐任务和辅助任务之间的互信息最大化,以增强会话数据,从而提升推荐性能。在Yoochoose和Tmall两个公开数据集上进行实验,与基线模型相比,提出的模型在Yoochoose上P@20和MRR@20至少提升了0.94%和0.79%,在Tmall上P@20和MRR@20至少提升了9.61%和4.67%,证明了Ss-GNN模型的有效性。  相似文献   

4.
针对会话推荐模型中存在的推荐准确率不高的问题,提出了一种基于胶囊图卷积的解缠绕会话感知推荐方法(CGCD)。具体来说,采用解缠绕学习技术将项目嵌入转换为基于多个子通道的因子嵌入,利用图卷积网络对因子嵌入进行细粒度的学习。然后,利用胶囊动态融合策略聚合不同的因子获得新的项目嵌入。此外,采用多头注意力机制为会话中每个项目分配权重。最后,根据分配的权重将项目嵌入与当前会话中的其他项目进行聚合,进而生成准确的会话表示,实现项目推荐。在两个公开真实数据集上的实验表明,所提模型在推荐的Pre@10,Pre@20,MRR@10和MRR@20上平均提高了5.17%、2.99%、6.56%和2.94%,验证了其有效性与高效性。  相似文献   

5.
孙轩宇  史艳翠 《计算机应用》2023,(12):3689-3696
针对现有的会话推荐模型难以显式地表示项目对推荐结果的影响的问题,提出一种融合项目影响力的图神经网络会话推荐模型(SR-II)。首先,提出一种新的边权重计算方法,将计算结果作为图结构中转移关系的影响力权重,并用图神经网络(GNN)的影响力图门控层提取该图的特征;其次,提出改进的捷径图连接有关联的项目,有效捕获远程依赖,丰富图结构所能表达的信息,并通过注意力机制的捷径图注意力层提取该图的特征;最后,通过结合上述两层,构建推荐模型。在Diginetica和Gowalla数据集上的实验结果中,SR-II的HR@20最高达到53.12%,MRR@20最高达到25.79%。在Diginetica数据集上,相较于同一表征空间下基于训练模型的会话推荐(CORE-trm),SR-II在HR@20上提升了1.10%,在MRR@20上提升了1.21%。在Gowalla数据集上,相较于基于会话的自注意网络推荐(SR-SAN),SR-II在HR@20上提升了1.73%;相较于基于无损边缘保留聚合和捷径图注意力的推荐(LESSR)模型,SR-II在MRR@20上提升了1.14%。实验结果表明SR-II的推荐效果优...  相似文献   

6.
在基于会话的推荐中,图神经网络及其改进模型将会话内复杂的交互关系建模为图结构并从中捕获项目特征,是现有推荐模型中性能较好的一类方法。然而大多数模型都忽略了不同会话之间可能存在的有效信息,仅对当前会话建模难以利用其他会话,也无法发挥邻域信息的辅助作用。因此提出基于邻域感知图神经网络的会话推荐(NA-GNN)。该模型构建会话层和全局邻域层的图结构捕获项目表示,结合注意力机制聚合两种项目表征,将会话序列之间的互信息最大化地结合到网络训练中。在真实的数据集Yoochoose和Diginetica上进行实验,与性能最优的基准模型相比,模型P@20在Yoochoose上提高了1.85%,在Diginetica上提升了7.19%;MRR@20分别提升了0.48%和8.36%,证明模型的有效性和合理性。  相似文献   

7.
为了解决会话推荐系统中数据稀疏性问题, 提出了一种基于注意力机制的自监督图卷积会话推荐模型(self-supervised graph convolution session recommendation based on attention mechanism, ATSGCN). 该模型将会话序列构建成3个不同的视图: 超图视图、项目视图和会话视图, 显示会话的高阶和低阶连接关系; 其次, 超图视图使用超图卷积网络来捕获会话中项目之间的高阶成对关系, 项目视图和会话视图分别使用图卷积网络和注意力机制来捕获项目和会话级别局部数据中的低阶连接信息; 最后, 通过自监督学习使两个编码器学习到的会话表示之间的互信息最大化, 从而有效提升推荐性能. 在Nowplaying和Diginetica两个公开数据集上进行对比实验, 实验结果表明, 所提模型性能优于基线模型.  相似文献   

8.
当前先进的会话推荐算法主要通过图神经网络从全局和目标会话中挖掘项目的成对转换关系,并将目标会话压缩成固定的向量表示,忽略了项目间复杂的高阶信息和目标项目对用户偏好多样性的影响。为此提出了基于超图卷积网络和目标多意图感知的会话推荐算法HCN-TMP。通过学习会话表示来表达用户偏好,首先依据目标会话构建会话图,依据全局会话构建超图,通过意图解纠缠技术将原有反映用户耦合意图的项目嵌入表示转换为项目多因素嵌入表示,再经图注意力网络和超图卷积网络分别学习目标会话节点的会话级和全局级项目表示,并使用距离相关性损失函数增强多因素嵌入块间的独立性;然后嵌入目标会话中节点位置信息,加权每个节点的注意力权重,得到全局级和会话级会话表示;利用对比学习最大化两者互信息,经目标多意图感知,针对不同的目标项目自适应地学习目标会话中多意图的用户偏好,得到目标感知级会话表示,最后线性融合三个级别的会话表示得到最终的会话表示。在Tmall和Nowplaying两个公开数据集上进行大量实验,实验结果验证了HCN-TMP算法的有效性。  相似文献   

9.
近年来,基于会话推荐系统(session-based recommender system,SRS)的应用和研究是推荐系统的一个热门方向。如何利用用户会话信息进一步提升用户满意度和推荐精确度,是基于会话推荐系统的主要任务。目前大多数SBR模型仅基于目标会话对用户偏好建模,忽略了来自其他会话的物品转换信息,导致无法全面了解用户偏好。为了解决其局限性,提出融合全局上下文信息注意力增强的图神经网络模型(global context information graph neural networks for session-based recommendation,GCI-GNN)。该模型利用所有会话上的物品转换关系,更准确地获取用户偏好。具体而言,GCI-GNN从目标会话和全局会话学习物品向量表示。使用位置感知注意网络,将反向位置信息纳入物品嵌入中。考虑会话长度信息学习用户表示进而达到更有效的推荐。在Diginetica和Yoochoose数据集上进行实验,实验结果表明,相对最优的基准模型,GCI-GNN模型在Diginetica数据集各项指标上的提高超过2个百分点,在Yoochoose数据...  相似文献   

10.
针对现有会话推荐算法未充分考虑用户的上下文信息的现状,为增强基于会话的推荐算法的个性化推荐效果,提出一种融合用户会话数据的上下文感知推荐算法。将上下文信息通过embedding映射成低维实数向量特征,通过Add、Stack、MLP三种组合方式将低维向量特征融入到基于会话的循环神经网络推荐模型,设计了基于BPR的损失函数动态刻画会话点击序列的用户偏好,以提升个性化推荐能力。在Adressa数据集上的实验表明,所提算法相比基线算法GRU4REC,在指标Recall@20上提高了3.2%,MRR@20上提高了27%。  相似文献   

11.
基于会话的推荐旨在利用匿名会话预测用户行为。现有基于图神经网络(GNN)的会话推荐算法大多仅针对当前会话提取用户偏好,却忽略了来自其他会话的高阶多元关系从而影响推荐精度。此外,由于会话推荐所采用的短时交互序列包含的信息非常有限,使其更容易受到数据稀疏性的影响。针对上述问题,提出了自监督混合图神经网络会话推荐模型(SHGN)。该模型首先通过将原始数据构建为三个视图来描述会话与物品关系,然后通过多头图注意力网络捕获会话内部物品的低阶转换信息,提出了残差图卷积网络捕获物品和会话的高阶转换信息;最后融合自监督学习(SSL)作为辅助任务,通过最大化不同通道学习到的会话嵌入的互信息,对原始数据进行数据增强从而提升推荐性能。为了验证该方法的有效性,在Tmall、Diginetica、Nowplaying、Yoochoose四个基准数据集上与SR-GNN、GCE-GNN、DHCN等主流基线模型进行了对比实验,实验结果在P@20、MRR@20等性能指标上均取得了一定提升。  相似文献   

12.
现有基于会话的推荐算法主要通过挖掘单个目标会话的项目转换关系进行推荐,对来自其他不同会话中项目之间的复杂转换信息考虑较少。为此,提出一种融合全局和近邻协同信息的会话推荐算法SFGN-GNN,同时考虑来自全局与近邻会话的协同信息,以充分挖掘用户偏好。通过学习会话表示来表达用户偏好,先按目标会话与近邻会话的成对项目转移关系构建近邻图,依据所有会话中的成对项目转移关系构建全局图,再利用图神经网络获取目标会话节点近邻级和全局级的项目表示,采用融合门融合得到会话级项目表示,并在其中嵌入项目在目标会话中的位置信息和时间信息,然后通过软注意力机制得到最终的会话表示,最后经过softmax函数预测下一个可能交互的项目。在两个数据集上的实验验证了SFGN-GNN算法有效性。  相似文献   

13.
基于会话推荐的目标是根据给定的会话预测下一个交互项.针对现有基于会话推荐大多只关注某个用户交互项的连续项来捕获相关信息;以及利用知识图谱提供辅助信息的过程中忽略了多模态知识图中各种数据类型的问题.本文提出多模态知识图的用户微行为的会话模型,将用户微行为和多模态知识纳入基于会话推荐的多任务学习中,用户微行为对项目的建模在微观行为级别上,使用一系列项目操作对来充分捕获会话中的用户意图.提出多模态知识图注意力网络,通过使用多模态图注意机制进行信息传播,将得到的聚集嵌入表示进行推荐.考虑候选项目信息来平衡局部和全局表示的门控模块,门控模块利用多层感知器层对候选项目、最近交互项目和每个用户的全局偏好之间的关系进行建模来计算权重.在两个基准数据集的实验结果表明,本文所提模型优于最新基于会话的推荐,有利于提升推荐的准确率.  相似文献   

14.
任俊伟  曾诚  肖丝雨  乔金霞  何鹏 《计算机应用》2021,41(11):3164-3170
基于会话的推荐旨在根据当前用户的匿名会话的点击序列信息来预测用户的下一次点击行为。现有方法多数都是通过对用户会话点击序列的物品信息进行建模,并学习物品的向量表示,进而进行推荐。而作为一种粗粒度的信息,物品的类别信息对物品有聚合作用,可作为物品信息的重要补充。基于此,提出了基于会话的多粒度图神经网络推荐模型(SRMGNN)。首先,使用图神经网络(GNN)得到会话序列中的物品和物品类别的嵌入向量表示,并使用注意力网络捕捉用户的注意力信息;然后,将赋予了不同注意力权重值的物品和物品类别信息进行融合后,输入到门限循环单元(GRU)里;最后,通过GRU学习会话序列的物品时序信息,并给出推荐列表。在公开的Yoochoose数据集和Diginetica数据集上进行实验,实验结果验证了该模型在增加了物品类别信息后的优势,且实验结果表明了在Precision@20和MRR@20这2种评价指标上,该模型相较于短期注意力/记忆优先级(STAMP)模型、神经注意力(NARM)模型、GRU4REC等8种模型均有更好的效果。  相似文献   

15.
面向会话的推荐方式起源于无法获得用户历史数据的应用场景,它是通过匿名会话来预测用户的行为.现有面向会话的推荐方法,虽然可以准确获得项目嵌入和考虑项目的复杂转换,但不能从多维度提取会话序列中隐藏的用户的长期兴趣和短期偏好,造成推荐性能低.该文引入注意力机制,提出一种多头注意力机制和软注意力机制有机结合的新机制,并据此提出面向会话推荐的注意力图神经网络.该注意力机制通过给不同的输入数据赋予不同权重,实现对当前推荐任务更为关键的信息的聚焦,以此从不同角度提取用户的兴趣和偏好.该模型在电商数据集上进行实验,与已有的基准模型相比,该文所提模型在各项评论指标上均有显著提升.在Dgeca数据集上,P@20可达61.77%,充分表明了所提方法的有效性.  相似文献   

16.
情感分类对推荐系统、自动问答、阅读理解等下游应用具有重要应用价值,是自然语言处理领域的重要研究方向。情感分类任务直接依赖于上下文,包括全局和局部信息,而现有的神经网络模型无法同时捕获上下文局部信息和全局信息。文中针对单标记和多标记情感分类任务,提出一种循环卷积注意力模型(LSTM-CNN-ATT,LCA)。该模型利用注意力机制融合卷积神经网络(Convolutional Neural Network,CNN)的局部信息提取能力和循环神经网络(Recurrent Neural Network,RNN)的全局信息提取能力,包括词嵌入层、上下文表示层、卷积层和注意力层。对于多标记情感分类任务,在注意力层上附加主题信息,进一步指导多标记情感倾向的精确提取。在两个单标记数据集上的F1指标达到82.1%,与前沿单标记模型相当;在两个多标记数据集上,小数据集实验结果接近基准模型,大数据集上的F1指标达到78.38%,超过前沿模型,表明LCA模型具有较高的稳定性和较强的通用性。  相似文献   

17.
网络表示学习旨在将网络中的节点转换到低维向量空间,并保持网络固有属性.现有方法大多针对普通网络,忽略了属性二分网络的特殊性及网络的高度非线性特性等.针对上述问题,首先引入一个扩展权重矩阵融合二分网络显式和携带属性信息的隐式结构;接着提出一种基于深度自编码器的属性二分网络表示学习模型,以捕捉网络的高度非线性特性;通过深度自编码器重构二阶邻近度以保持全局网络结构,同时该编码器利用节点一阶邻近度作为监督信息来保持局部网络结构;最后进行联合优化.将该模型在Yelp、Douban Book、Dou-ban Movie和MovieLens四个数据集上进行推荐任务,结果显示该模型的F1@10、MAP@10、MRR@10和NDGG@10指标在四个数据集上的平均值相较最新基准方法(ABNE)分别提高4.29%、5.63%、6.26%、4.21%.  相似文献   

18.
针对基于图卷积的自编码器模型对原始图属性和拓扑信息的保留能力有限、无法学习结构和属性之间深度关联信息等问题,提出基于多通道图卷积自编码器的图表示学习模型。设计拓扑和属性信息保留能力实验,验证了基于图卷积的自编码器模型具备保留节点属性和拓扑结构信息的能力。构建特定信息卷积编码器和一致信息卷积编码器,提取图的属性空间特征、拓扑空间特征以及两者关联特征,生成属性嵌入、拓扑嵌入和一致性嵌入,同时建立与编码器对称的卷积解码器,还原编码器过程。使用重构损失、局部约束和一致性约束,优化各编码器生成的低维嵌入表示。最终将蕴含不同图信息的多种嵌入进行融合,生成各节点的嵌入表示。实验结果表明,该模型在BlogCatalog和Flickr数据集上节点分类的Micro-F1和Macro-F1明显高于基线模型,在Citeseer数据集上节点聚类的精度和归一化互信息相比于表现最优的基线模型提升了11.84%和34.03%。上述实验结果证明了该模型采用的多通道方式能够在低维嵌入中保留更丰富的图信息,提升图机器学习任务的性能表现。  相似文献   

19.
采用一个组织良好的数据集和基于深度学习的模型,实现根据上下文获得论文的引文推荐.模型包括一个文档编码器和一个上下文编码器,使用图卷积网络层(GCN)和预训练模型BERT[1]的双向编码器表示.通过修改相关的PeerRead数据集,建立一个PeerReadPlus新数据集,它包含引用文献的上下文语句和论文元数据.结果表明...  相似文献   

20.
针对现有基于图的会话推荐方法忽略了反馈数据中由于用户行为不确定性引起的噪声影响,存在无法准确和有效地捕捉用户偏好的问题,提出一种面向会话的需求感知注意图神经网络推荐模型(DAAGNNSR)。将具有时序性的会话数据构建为图,通过引入图神经网络学习图上节点嵌入表示;将提取的项目特征使用需求感知聚合器线性聚合为用户潜在需求矩阵,以自动削弱噪声干扰,同时用低秩多头注意力网络将该矩阵与全部项目特征进行逐项兴趣交互生成需求增强的项目表征;联合独立位置编码进一步分析项目间顺序关联,并且将生成的独立位置嵌入与项目表征进行线性融合;经过预测层生成推荐列表。将所提模型在Diginetica、Tmall和Nowplaying三个公共数据集上进行训练和测试,实验结果表明,该模型的推荐精度在各指标上均优于其他基线模型,与基于图上下文自注意力机制模型(GCSAN)相比,Diginetica上NDCG@10提高了5.6%,Tmall上Recall@10提高了6.4%;与基于图神经网络的SRGNN相比,Tmall上Precision@10提高了5.0%,推荐性能显著提升。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号