排序方式: 共有3条查询结果,搜索用时 15 毫秒
1
1.
2.
多视图聚类是无监督学习领域研究热点之一,近年来涌现出许多优秀的多视图聚类工作,但其中大多数方法均假设各视图是完整的,然而真实场景下数据收集过程极容易发生缺失,造成部分视图不完整。同时,很多方法采取传统机器学习方法(即浅层模型)对数据进行特征学习,这导致模型难以挖掘高维数据内的复杂信息。针对以上问题,本文提出一种面向不完整多视图聚类的深度互信息最大化方法。首先利用深度自编码器挖掘各视图深层次的隐含特征,并通过最大化潜在表示间的互信息来学习各视图间的一致性知识。然后,对于不完整视图中的缺失数据,利用多视图的公共潜在表示进行补全。此外,本文采用一种自步学习策略对网络进行微调,从易到难地学习数据集中的样本,得到更加宜于聚类的特征表示。最后,在多个真实数据集上进行实验,验证了本文方法的有效性。 相似文献
3.
现有的深度多视图聚类方法存在以下缺点:1)在对单一视图进行特征提取时,只考虑了样本的属性信息或结构信息,而没有将二者进行融合,导致提取到的特征不能充分表示原始数据的潜在结构;2)将特征提取与聚类划分为两个独立的过程,没有建立两者间的联系,因此无法利用聚类过程优化特征提取过程。针对以上问题,提出一种深度融合多视图聚类网络(DFMCN)。首先,结合自编码器和图卷积自编码器融合样本的属性信息和结构信息,获取每个视图的嵌入空间;然后,通过加权融合获取融合视图嵌入空间并在此空间中进行聚类,并且在聚类过程中采用双层自监督机制优化特征提取过程。在FM(Fashion-MNIST)、HW(HandWritten numerals)、YTF(You Tube Face)数据集上的实验结果表明:DFMCN的准确率高于所有对比方法;在FM数据集上,DFMCN的准确率比次优的CMSC-DCCA(Cross-Modal Subspace Clustering via Deep Canonical Correlation Analysis)方法提高了1.80个百分点,标准化互信息(NMI)高于除CMSC-DCCA... 相似文献
1