首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 250 毫秒
1.
现有自监督社交推荐模型大多通过人工启发式图增强和单一关系视图间对比的策略构建自监督信号,性能受到增强自监督信号质量的影响,难以自适应地抑制噪声.由此,文中提出基于自监督图掩码神经网络的社交推荐模型.首先,分别构建用户社交和物品分类的单一关系视图及高阶连通异构图,采用图掩码学习范式指导用户社交图进行自适应和可学习的数据增强.然后,设计异构图编码器,学习视图中的潜在语义,跨视图对用户、物品嵌入进行对比学习,完成自监督任务,分别对用户、物品嵌入进行加权融合,完成推荐任务.最后,利用多任务训练策略联合优化自监督学习任务、推荐任务和图掩码任务.在3个真实数据集上的实验表明文中模型性能具有一定提升.  相似文献   

2.
现有视频推荐方法在算法框架中引入图神经网络来建模用户—视频协同关系,学习用户和视频的表示向量,但是节点中包含的冗余噪声会限制模型的建模能力。针对以上问题,提出了一种融合多模态自监督图学习的视频推荐模型(IMSGL-VRM)。首先,在图数据增强模式下构建自监督的图神经网络模型学习多模态视图下的节点特征表示,以提升节点表示的泛化能力;其次,为了得到推荐结果的多样性,设计了多兴趣提取模块从用户历史的交互视频序列中建模用户的多兴趣;最后,融合多模态的用户多兴趣表示和视频的特征表示,使用多样性可控的方式输出推荐结果,以满足视频推荐的多样性需求。在MovieLens-1M和TikTok数据集上实验,采用准确性、召回率、NDCG和多样性等指标评估模型。实验结果表明,该模型相比经典基准模型均有显著的性能提升。  相似文献   

3.
自编码器(AE)是一种高效的图数据表示学习模型,但大多数图自编码器(GAE)为浅层模型,其效率会随着隐藏层的增加而降低。针对上述问题,提出基于One-Shot聚合(OSA)和指数线性(ELU)函数的GAE模型OSA-GAE和图变分自编码器模型OSA-VGAE。首先,利用多层图卷积网络(GCN)构建编码器,并引入OSA和ELU函数;然后,在解码阶段使用内积解码器恢复图的拓扑结构;此外,为了防止模型训练过程中的参数过拟合,在损失函数中引入正则化项。实验结果表明,OSA和ELU函数可以有效提高深层GAE的性能,改善模型的梯度信息传递。在使用6层GCN时,基准引文数据集PubMed的链接预测任务中,深层OSA-VGAE相较于原始的VGAE在ROC曲线下的面积(AUC)和平均精度(AP)上分别提升了8.67和6.85个百分点,深层OSA-GAE相较于原始的GAE在AP和AUC上分别提升了6.82和4.39个百分点。  相似文献   

4.
针对现有的图表示学习在自监督对比学习方法中存在视图差异较大,且依赖于负样本防止模型坍塌,导致节点表示能力弱及空间复杂度加大的问题,提出一种基于双重视图耦合的自监督图表示学习模型(self-supervised graph representation learning model with dual view coupling, DVCGRL),用于学习图数据表示。采用特征空间增广和结构空间扩充相结合生成双重视图,将双重视图作为正样本对输入孪生神经网络;利用图编码器提取图数据特征,通过多层感知器获得映射后的特征向量;采用耦合网络拉近双重视图的特征向量距离,提升节点表示能力,防止模型坍塌。在公开数据集上进行的节点分类实验结果表明,与当前主流图表示学习模型相比,该模型降低了空间复杂度,节点分类精度得到明显提高。  相似文献   

5.
邴睿  袁冠  孟凡荣  王森章  乔少杰  王志晓 《软件学报》2023,34(10):4477-4500
异质图神经网络作为一种异质图表示学习的方法,可以有效地抽取异质图中的复杂结构与语义信息,在节点分类和连接预测任务上取得了优异的表现,为知识图谱的表示与分析提供了有力的支撑.现有的异质图由于存在一定的噪声交互或缺失部分交互,导致异质图神经网络在节点聚合、更新时融入错误的邻域特征信息,从而影响模型的整体性能.为解决该问题,提出了多视图对比增强的异质图结构学习模型.该模型首先利用元路径保持异质图中的语义信息,并通过计算每条元路径下节点之间特征相似度生成相似度图,将其与元路径图融合,实现对图结构的优化.通过将相似度图与元路径图作为不同视图进行多视图对比,实现无监督信息的情况下优化图结构,摆脱对监督信号的依赖.最后,为解决神经网络模型在训练初期学习能力不足、生成的图结构中往往存在错误交互的问题,设计了一个渐进式的图结构融合方法.通过将元路径图和相似度图递增地加权相加,改变图结构融合过程中相似度图所占的比例,在抑制了因模型学习能力弱引入过多的错误交互的同时,达到了用相似度图中的交互抑制原有干扰交互或补全缺失交互的目的,实现了对异质图结构的优化.选择节点分类与节点聚类作为图结构学习的验证任务,在4种...  相似文献   

6.
康雁  寇勇奇  谢思宇  王飞  张兰  吴志伟  李浩 《计算机科学》2021,48(z2):81-87,116
聚类作为数据挖掘和机器学习中最基本的任务之一,在各种现实世界任务中已得到广泛应用.随着深度学习的发展,深度聚类成为一个研究热点.现有的深度聚类算法主要从节点表征学习或者结构表征学习两个方面入手,较少考虑同时将这两种信息进行融合以完成表征学习.提出一种融合变分图注意自编码器的深度聚类模型FVGTAEDC(Deep Clustering Model Based on Fusion Varitional Graph Attention Self-encoder),此模型通过联合自编码器和变分图注意自编码器进行聚类,模型中自编码器将变分图注意自编码器从网络中学习(低阶和高阶)结构表示进行集成,随后从原始数据中学习特征表示.在两个模块训练的同时,为了适应聚类任务,将自编码器模块融合节点和结构信息的表示特征进行自监督聚类训练.通过综合聚类损失、自编码器重构数据损失、变分图注意自编码器重构邻接矩阵损失、后验概率分布与先验概率分布相对熵损失,该模型可以有效聚合节点的属性和网络的结构,同时优化聚类标签分配和学习适合于聚类的表示特征.综合实验证明,该方法在5个现实数据集上的聚类效果均优于当前先进的深度聚类方法.  相似文献   

7.
基于会话的推荐方法由于短期用户交互数据有限,与传统推荐方法相比,其性能更容易受到数据稀疏性问题的影响。为增强会话数据以缓解数据稀疏对会话推荐性能的影响,提出一种结合自监督学习的图神经网络会话推荐(Ss-GNN)模型。构建会话图并建立基于图注意力网络的会话推荐任务来获取项目级表示和会话级表示;从会话级表示的角度出发,利用用户的一般兴趣和当前兴趣来构建辅助任务获取自监督信号;利用自监督学习实现推荐任务和辅助任务之间的互信息最大化,以增强会话数据,从而提升推荐性能。在Yoochoose和Tmall两个公开数据集上进行实验,与基线模型相比,提出的模型在Yoochoose上P@20和MRR@20至少提升了0.94%和0.79%,在Tmall上P@20和MRR@20至少提升了9.61%和4.67%,证明了Ss-GNN模型的有效性。  相似文献   

8.
为了解决会话推荐系统中数据稀疏性问题, 提出了一种基于注意力机制的自监督图卷积会话推荐模型(self-supervised graph convolution session recommendation based on attention mechanism, ATSGCN). 该模型将会话序列构建成3个不同的视图: 超图视图、项目视图和会话视图, 显示会话的高阶和低阶连接关系; 其次, 超图视图使用超图卷积网络来捕获会话中项目之间的高阶成对关系, 项目视图和会话视图分别使用图卷积网络和注意力机制来捕获项目和会话级别局部数据中的低阶连接信息; 最后, 通过自监督学习使两个编码器学习到的会话表示之间的互信息最大化, 从而有效提升推荐性能. 在Nowplaying和Diginetica两个公开数据集上进行对比实验, 实验结果表明, 所提模型性能优于基线模型.  相似文献   

9.
协同过滤算法已广泛应用在推荐系统中,在实现新异性推荐功能中效果显著,但仍存在数据稀疏、扩展性差、冷启动等问题,需要新的设计思路和技术方法进行优化.近几年,深度学习在图像处理、目标识别、自然语言处理等领域均取得突出成果,将深度神经网络模型与推荐算法结合,为构建新型推荐系统带来新的契机.本文提出一种新式混合神经网络模型,该模型由栈式降噪自编码器和深度神经网络构成,学习得到用户和项目的潜在特征向量以及用户-项目之间的交互行为模型,有效解决数据稀疏问题从而提高系统推荐质量.该推荐算法模型通过MovieLens电影评分数据集测试,实验结果与SVD、PMF等传统推荐算法和经典自编码器模型算法作对比,其推荐质量得到显著提升.  相似文献   

10.
基于会话的推荐旨在利用匿名会话预测用户行为。现有基于图神经网络(GNN)的会话推荐算法大多仅针对当前会话提取用户偏好,却忽略了来自其他会话的高阶多元关系从而影响推荐精度。此外,由于会话推荐所采用的短时交互序列包含的信息非常有限,使其更容易受到数据稀疏性的影响。针对上述问题,提出了自监督混合图神经网络会话推荐模型(SHGN)。该模型首先通过将原始数据构建为三个视图来描述会话与物品关系,然后通过多头图注意力网络捕获会话内部物品的低阶转换信息,提出了残差图卷积网络捕获物品和会话的高阶转换信息;最后融合自监督学习(SSL)作为辅助任务,通过最大化不同通道学习到的会话嵌入的互信息,对原始数据进行数据增强从而提升推荐性能。为了验证该方法的有效性,在Tmall、Diginetica、Nowplaying、Yoochoose四个基准数据集上与SR-GNN、GCE-GNN、DHCN等主流基线模型进行了对比实验,实验结果在P@20、MRR@20等性能指标上均取得了一定提升。  相似文献   

11.
会话推荐立足于目标用户的当前会话,根据项目类别、跨会话的上下文信息、多种用户行为等辅助信息学习项目间的依赖关系,从而捕捉用户的长短期偏好进行个性化推荐。近年来,流行的深度学习系列方法已经成为会话型推荐系统这个研究热点的前沿方法,尤其是图神经网络的引入,使会话推荐系统的性能得到了进一步提升。鉴于此,该综述从问题定义与会话推荐因素出发,从构图方面进行分析;将相关工作分为基于图卷积网络、门控图神经网络、图注意力网络和其他图神经网络架构的会话推荐系统,并进行归纳与对比;对各工作实验部分中的损失函数类别、所选用的数据集和模型性能评估指标三方面进行深入分析。重点从算法原理和性能分析两方面对各模型框架进行评估和梳理,旨在对近五年基于图神经网络的会话推荐系统相关工作进行评述、总结与展望。  相似文献   

12.
深度学习作为人工智能的一个研究分支发展迅速,而研究数据主要是语音、图像和视频等,这些具有规则结构的数据通常在欧氏空间中表示。然而许多学习任务需要处理的数据是从非欧氏空间中生成,这些数据特征和其关系结构可以用图来定义。图卷积神经网络通过将卷积定理应用于图,完成节点之间的信息传播与聚合,成为建模图数据一种有效的方法。尽管图卷积神经网络取得了巨大成功,但针对图任务中的节点分类问题,由于深层图结构优化的特有难点——过平滑现象,现有的多数模型都只有两三层的浅层模型架构。在理论上,图卷积神经网络的深层结构可以获得更多节点表征信息,因此针对其层级信息进行研究,将层级结构算法迁移到图数据分析的核心在于图层级卷积算子构建和图层级间信息融合。本文对图网络层级信息挖掘算法进行综述,介绍图神经网络的发展背景、存在问题以及图卷积神经网络层级结构算法的发展,根据不同图卷积层级信息处理将现有算法分为正则化方法和架构调整方法。正则化方法通过重新构建图卷积算子更好地聚合邻域信息,而架构调整方法则融合层级信息丰富节点表征。图卷积神经网络层级特性实验表明,图结构中存在层级特性节点,现有图层级信息挖掘算法仍未对层级特性节点的图信息进行完全探索。最后,总结了图卷积神经网络层级信息挖掘模型的主要应用领域,并从计算效率、大规模数据、动态图和应用场景等方面提出进一步研究的方向。  相似文献   

13.
在知识图谱中,实体的文本描述信息、实体的层次类型信息和图的拓扑结构信息中隐藏着丰富的内容,它们可以形成对原始三元组的有效补充,帮助提高知识图谱各种任务的效果.为了充分利用这些多源异质信息,首先通过一维卷积神经网络嵌入文本描述信息,然后根据实体的层次类型信息构建投影矩阵,将三元组中的实体向量和实体的描述向量映射到特定的关...  相似文献   

14.
图结构数据是现实生活中广泛存在的一类数据形式.宏观上的互联网、知识图谱、社交网络数据,微观上的蛋白质、化合物分子等都可以用图结构来建模和表示.由于图结构数据的复杂性和异质性,对图结构数据的分析和处理一直是研究界的难点和重点.图神经网络(Graph Neural Network,GNN)是近年来出现的一种利用深度学习直接对图结构数据进行学习的框架,其优异的性能引起了学者高度的关注和深入的探索.通过在图中的节点和边上制定一定的策略,GNN将图结构数据转化为规范而标准的表示,并输入到多种不同的神经网络中进行训练,在节点分类、边信息传播和图聚类等任务上取得优良的效果.与其他图学习算法相比较,GNN能够学习到图结构数据中的节点以及边的内在规律和更加深层次的语义特征.由于具有对图结构数据强大的非线性拟合能力,因此在不同领域的图相关问题上,GNN都表现出更高的准确率和更好的鲁棒性.本文在现有GNN研究的基础上,首先概述了GNN的出现历程,并介绍了相关概念和定义.之后本文着重讨论和对比了GNN中的各种算法框架,包括核心思想、任务划分、学习方式、优缺点、适用范围、实现成本等.此外,本文对GNN算法在多个不同领域下的应用场景进行了详细的阐述,将GNN与其他图学习算法的优缺点作了联系和比较.针对存在的一些问题和挑战,本文勾画了GNN的未来方向和发展趋势,最后对全文进行了全面而细致的总结.  相似文献   

15.
Recently, graph neural networks (GNNs) have attracted much attention in the field of machine learning due to their remarkable success in learning from graph-structured data. However, implementing GNNs in practice faces a critical bottleneck from the high complexity of communication and computation, which arises from the frequent exchange of graphic data during model training, especially in limited communication scenarios. To address this issue, we propose a novel framework of federated graph neural networks, where multiple mobile users collaboratively train the global model of graph neural networks in a federated way. The utilization of federated learning into the training of graph neural networks can help reduce the communication overhead of the system and protect the data privacy of local users. In addition, the federated training can help reduce the system computational complexity significantly. We further introduce a greedy-based user selection for the federated graph neural networks, where the wireless bandwidth is dynamically allocated among users to encourage more users to attend the federated training of neural networks. We perform the convergence analysis on the federated training of neural networks, in order to obtain some more insights on the impact of critical parameters on the system design. Finally, we perform the simulations on the coriolis ocean for reAnalysis (CORA) dataset and show the advantages of the proposed method in this paper.  相似文献   

16.
高质量学习图中节点的低维表示是当前的一个研究热点。现有浅模型的方法无法捕捉图结构的非线性关系,图神经网络技术中的图卷积模型会产生过平滑问题。同时,如何确定不同跳数关系在图表示学习中的作用亦是研究中尚需解决的问题。以解决上述问题为目的,提出一个基于T(T>1)个前馈神经网络的深度学习模型,该框架利用深度模型抽取图结构的非线性关系,T个子模型有效地捕获图的局部和全局(高阶)关系信息,并且它们在最终的向量表示中赋予了不同的作用、从而发挥不同跳数关系的优势。在顶点分类和链接预测任务中的实验结果表明,该框架比现有方法具有竞争力,对比基准算法可以获得20%左右的提升。  相似文献   

17.
基于小样本学习的图像分类技术综述   总被引:2,自引:0,他引:2  
图像分类的应用场景非常广泛,很多场景下难以收集到足够多的数据来训练模型,利用小样本学习进行图像分类可解决训练数据量小的问题.本文对近年来的小样本图像分类算法进行了详细综述,根据不同的建模方式,将现有算法分为卷积神经网络模型和图神经网络模型两大类,其中基于卷积神经网络模型的算法包括四种学习范式:迁移学习、元学习、对偶学习...  相似文献   

18.
针对传统的基于模型的协同过滤推荐算法未能有效利用用户与项目的属性信息以及用户之间与项目之间的关系结构信息, 本文提出一种基于图注意力网络表示学习的协同过滤推荐算法. 该算法使用知识图谱表示节点的属性特征信息和节点间的关系结构信息, 并在用户和项目的同质网络上进行节点的图注意力网络表示学习, 得到用户和项目的网络嵌入特征表示, 最后构建融合网络嵌入信息的神经矩阵分解模型获得推荐结果. 本文在Movielens数据集上与相关算法进行对比实验, 实验证明该算法能优化模型的推荐性能, 提高推荐的召回率HR@K和归一化折损累计增益NDCG@K.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号