首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
对于现实的复杂网络而言,有连边的节点对数目通常远小于无连边的节点对数目,在链路预测时,不同类别的样本数量不平衡会导致预测的分类结果与真实情况有较大的偏差。针对此问题,本文提出更优的链路预测算法,先对网络拓扑信息进行特征提取,再设计出一种集成分类器对数据样本进行平衡处理,然后基于网络的拓扑信息改进了分类器的集成规则,最后将训练出的集成分类器同现有的4个针对不平衡分类的链路预测学习算法进行对比研究。通过对4个不同规模的时序网络进行链路预测,结果表明:本文的链路预测学习算法具有更高的召回率,同时也保证了预测结果的准确性,从而更好地解决了链路预测中因类别不平衡导致的误分类问题。  相似文献   

2.
针对当前基于网络拓扑结构相似性的链路预测算法普遍存在精确度较低且适应性不强的问题,研究发现融合算法能够有效改善这些问题。提出了一种基于神经网络的融合链路预测算法,主要通过神经网络对不同链路预测相似性指标进行融合。该算法使用神经网络对不同相似性指标的数值特征进行学习,同时采用标准粒子群算法对神经网络进行了优化,并通过优化学习后的神经网络模型计算出融合指标。多个真实网络数据集上实验表明,该算法的预测精度明显高于融合之前的各项指标,并且优于现有融合方法的精度。  相似文献   

3.
现有的基于Word2vec的网络表示学习(NRL)算法使用随机游走(RW)来生成节点序列,针对随机游走倾向于选择具有较大度的节点,生成的节点序列不能很好地反映网络结构信息,从而影响表示学习性能的问题,提出了基于改进随机游走的网络表示学习算法。首先,使用RLP-MHRW算法生成节点序列,它在生成节点序列时不会偏向大度节点,得到的节点序列能更好地反映网络结构信息;然后,将节点序列投入到Skip-gram模型得到节点表示向量;最后,利用链路预测任务来测度表示学习性能。在4个真实网络数据集上进行了实验。在论文合作网络arXiv ASTRO-PH上与LINE和node2vec算法相比,链路预测的AUC值分别提升了8.9%和3.5%,其他数据集上也均有提升。实验结果表明,RLP-MHRW能有效提高基于Word2vec的网络表示学习算法的性能。  相似文献   

4.
陈扬  刘勤明  梁耀旭 《计算机应用研究》2021,38(11):3366-3370,3375
针对设备寿命预测中出现的缺乏状态标签以及数据样本匮乏、分布不平衡的问题,提出了基于PSO的改进K-means算法与一套基于传统SMOTE的数据优化方案.在优化K-means算法的过程中联合粒子群算法的特点,通过给定粒子群算法粒子生成范围以提高粒子群算法的寻优效率,从而快速判断设备所处的工作状态,再通过比较同簇样本距离均值与样本到中心点的距离建立改进SMOTE算法,通过新增少数类样本个数以规避样本不平衡带来的计算误差.最后利用AdaBoost集成优化KNN算法提升分类效果并通过拟合出设备寿命曲线,从而更好地预测设备健康水平与未来寿命情况.算例证明,该模型可以有效预测小样本不平衡数据下设备的健康状态.  相似文献   

5.
顾伟  任勇军 《计算机与数字工程》2021,49(9):1743-1746,1871
深度Q-学习算法常用于检测社会网络平台上的僵尸攻击.但是Q-学习算法的收敛慢.为此,提出基于深度Q-学习和粒子群优化的僵尸检测(Deep Q-Learning and Particle Swarm Optimization-based Bot Detection,DQL-PSO)算法.DQL-PSO算法引用粒子群优化算法提高Q-学习算法性能,进而获取最优的学习动作序列.将学习动作序列作为粒子的位置;将状态转换概率转换成粒子速度,进而利用粒子群优化算法提升Q-学习算法性能.仿真结果表明,提出的DQL-PSO算法提高了僵尸检测的准确率,并提升了收敛速度.  相似文献   

6.
基于历史数据和深度学习的负荷预测已广泛应用于以电能为中心的综合能源系统中以提高预测精度,然而,当区域中出现新用户时,其历史负荷数据往往极少,此时,深度学习难以适用.针对此,本文提出基于负荷特征提取和迁移学习的预测机制.首先,依据源域用户历史负荷数据,融合聚类算法和门控循环单元网络构建源域数据的特征提取和分类模型;然后,利用该模型提取当前待预测目标域小样本的特征及其类别信息,进而给出基于特征相似度和时间遗忘因子的特征融合策略;最后,依据融合特征,给出基于迁移学习和特征输入的负荷预测.将所提算法应用于卡迪夫某区域的高中和住宅用电预测中,实验结果表明了该算法在综合能源系统小样本电力负荷预测中的有效性.  相似文献   

7.
混沌时间序列的混合粒子群优化预测   总被引:2,自引:0,他引:2       下载免费PDF全文
提出一种混合粒子群优化算法,即在改进粒子群优化算法全局搜索模型参数的基础上,利用梯度下降法进一步确定径向基神经网络模型参数,以提高网络的收敛精度和网络性能.采用基于RBFNN的混合粒子群优化算法进行离散Henon和连续Mackey-Glass混沌时间序列预测仿真,结果表明该算法能快速精确地预测混沌时间序列,是研究复杂非线性动力系统辨识和控制的一种有效方法.  相似文献   

8.
链路预测是根据复杂网络中已有的拓扑信息预测网络中两个不相邻的节点间产生连接的可能性,是复杂网络领域中的重要研究方向,具有重要的研究价值.在理论层面上,提升链路预测算法的性能有利于更合理的挖掘和分析网络的演化机制;在应用层面上,提升链路预测算法的性能有助于补全网络拓扑的缺失信息,从而便于优化后续网络拓扑相关的算法,例如图表示学习和个性化推荐等.该领域尽管近些年已经取得了较多的研究成果,但依然存在不少缺陷.例如,作为主流的基于节点相似性的链路预测算法存在高度退化的问题,即对于大多数不相邻的节点对均输出相同的预测值;其次,由于不同的复杂网络在网络结构、节点度数、连边数量以及联通性上各有差异,然而当前的算法通常仅考虑网络的某种结构特征,因此只对于特定的网络类型预测效果较好,可扩展性较差.鉴于此,本文利用深度学习理论善于挖掘各种高维数据的重要特征,将无监督训练方法引入到复杂网络的链路预测中,提出一种基于降噪自编码器的复杂网络链路预测算法.该算法通过神经网络结构与损失函数的构造,首先使其具有数据降噪恢复的能力,然后将完整的训练集数据输入到模型中,即可实现预测复杂网络演化机制的目的.具体地,将加入噪...  相似文献   

9.
针对MOOC中学生行为数据的长短期混合特性,为解决辍学预测中的动态类别不平衡问题,提出一种基于深度学习的辍学预测策略。首先建立以天为时间步长、周为学习周期的新型学生行为时间序列,以捕捉每一时间步长下时间序列数据的短期依赖关系和相邻学习周期之间的长期模式和趋势。然后结合辍学定义的两种不同表达揭示MOOC辍学预测的动态类别不平衡现象。接着引入基于代价敏感的长短期时间序列深度学习模型,以实现对高辍学风险学生的精准预测。最后在KDD Cup 2015数据集上的实验证明,所提策略能够有效帮助MOOC课程教师和教学管理者追踪课程学生在不同时间步长的学习状态,从而动态监控不同学习阶段的辍学行为。  相似文献   

10.
基于约束的粒子群聚类算法   总被引:1,自引:0,他引:1  
提出了一种基于约束的粒子群聚类算法CCPSO,该算法利用粒子群的特性在数据集中有指导地随机搜索聚类中心向量, 在较少的迭代次数内确定类别数.各样本与其类别中心的均方误差作为粒子群优化的目标函数,数据集的边界作为粒子群移动的约束条件,对约束违反分情况进行惩罚.基于数据集的方差和模糊高斯函数将样本到其类别中心的距离进行模糊映射,归一化到[0,1]区间,以降低不平衡数据集的影响.聚类iris数据集和Reuters-21578文档集以验证算法的有效性,并与k-means算法进行了对照实验,在大规模数据聚类时有明显优势.  相似文献   

11.
针对股市存在伪分型且分型数据集的类别样本不平衡问题,提出了一种结合缠论和深度学习的拐点预测方法(SMOTE-FLCN-WSVM)。在缠论的基础上,对数据集进行拐点的标注。深度学习模型从数据、特征以及分类算法三个层面对不平衡问题进行改进。首先采用SMOTE过采样算法对数据集进行预处理;再针对不平衡数据集特征提取困难的问题,使用引入Focal Loss的卷积神经网络挖掘数据的深层特征;然后利用引入类别权重参数的支持向量机对提取的特征进行分类。实验从实用性与有效性出发,选择绝对收益、相对收益与准确率对模型进行对比实验与收益评估。实验结果表明,所提模型具有可行性与实际应用价值。  相似文献   

12.
With the rapid development and wide application of big data technology, users’ unauthorized access to resources becomes one of the main problems that restrict the secure sharing and controlled access to big data resources. The ReBAC (Relationship-Based Access Control) model uses the relationship between entities to formulate access control rules, which enhances the logical expression of policies and realizes dynamic access control. However, It still faces the problems of missing entity relationship data and complex relationship paths of rules. To overcome these problems, a link prediction model LPMDLG based on GNN dual-source learning was proposed to transform the big data entity-relationship prediction problem into a link prediction problem with directed multiple graphs. A topology learning method based on directed enclosing subgraphs was designed in this modeled. And a directed dual-radius node labeling algorithm was proposed to learn the topological structure features of nodes and subgraphs from entity relationship graphs through three segments, including directed enclosing subgraph extraction, subgraph node labeling calculation and topological structure feature learning. A node embedding feature learning method based on directed neighbor subgraph was proposed, which incorporated elements such as attention coefficients and relationship types, and learned its node embedding features through the sessions of directed neighbor subgraph extraction and node embedding feature learning. A two-source fusion scoring network was designed to jointly calculate the edge scores by topology and node embedding to obtain the link prediction results of entity-relationship graphs. The experiment results of link prediction show that the proposed model obtains better prediction results under the evaluation metrics of AUC-PR, MRR and Hits@N compared with the baseline models such as R-GCN, SEAL, GraIL and TACT. The ablation experiment results illustrate that the model’s dual-source learning scheme outperforms the link prediction effect of a single scheme. The rule matching experiment results verify that the model achieves automatic authorization of some entities and compression of the relational path of rules. The model effectively improves the effect of link prediction and it can meet the demand of big data access control relationship prediction. © 2022, Beijing Xintong Media Co., Ltd.. All rights reserved.  相似文献   

13.
大规模特征选择问题的求解通常面临两大挑战:一是真实标签不足,难以引导算法进行特征选择;二是搜索空间规模大,难以搜索到满意的高质量解。为此,提出了新型的面向大规模特征选择的自监督数据驱动粒子群优化算法。第一,提出了自监督数据驱动特征选择的新型算法框架,可不依赖于真实标签进行特征选择。第二,提出了基于离散区域编码的搜索策略,帮助算法在大规模搜索空间中找到更优解。第三,基于上述的框架和方法,提出了自监督数据驱动粒子群优化算法,实现对问题的求解。在大规模特征数据集上的实验结果显示,提出的算法与主流有监督算法表现相当,并比前沿无监督算法具有更高的特征选择效率。  相似文献   

14.
针对原始病理图像经软件提取形态学特征后存在高维度,以及医学领域上样本的少量性问题,提出ReliefF-HEPSO头颈癌病理图像特征选择算法。该算法构建了多层次降维框架,首先根据特征和类别的相关性,利用ReliefF算法确定不同的特征权重,实现初步降维。其次利用进化神经策略(ENS)丰富二进制粒子群算法(BPSO)的种群的多样性,提出混合二进制进化粒子群算法(HEPSO)对候选特征子集完成最佳特征子集的自动寻找。与7种特征选择算法的实验对比结果证明,该算法能更有效筛选出高相关性的病理图像形态学特征,实现快速降维,以较少特征获得较高分类性能。  相似文献   

15.
Searching for an optimal feature subset from a high-dimensional feature space is an NP-complete problem; hence, traditional optimization algorithms are inefficient when solving large-scale feature selection problems. Therefore, meta-heuristic algorithms are extensively adopted to solve such problems efficiently. This study proposes a regression-based particle swarm optimization for feature selection problem. The proposed algorithm can increase population diversity and avoid local optimal trapping by improving the jump ability of flying particles. The data sets collected from UCI machine learning databases are used to evaluate the effectiveness of the proposed approach. Classification accuracy is used as a criterion to evaluate classifier performance. Results show that our proposed approach outperforms both genetic algorithms and sequential search algorithms.  相似文献   

16.
崔建双  吕玥  徐子涵 《控制与决策》2021,36(5):1223-1231
设计并实证研究一种基于地标特征和元学习方法推荐最佳优化算法的实现框架.地标特征摒弃了传统的问题简单特征、统计特征和信息理论特征复杂的提取过程,通过简化运行算法并仅以算法的相对性能表现作为问题特征集.在此基础上,利用元学习方法训练建模并针对新问题作出算法推荐.为验证推荐效果,以多模式资源约束的项目调度问题(MRCPSP)为优化对象,以人工蜂群、蚁群、粒子群和禁忌搜索4种元启发式算法作为推荐对象,分别使用人工神经网络、k最近邻、决策树以及随机森林4种元学习方法建立推荐元模型.计算结果表明,多种元学习方法均指向相近的推荐准确率,平均稳定在70%以上,最高可达95%.基于地标特征和元学习方法实现优化算法推荐是一个值得进一步探讨的新方向.  相似文献   

17.
针对Xen虚拟化平台中虚拟机资源分配不合理的问题,提出了两种资源调度优化算法,即细粒度优化算法和粗粒度优化算法.细粒度优化算法主要解决单个物理节点上虚拟机资源分配不合理问题,能够根据物理节点上运行的各虚拟机的资源利用情况来调整资源分配量,适当增加利用率较高的虚拟机的资源,减少资源利用率低的虚拟机的资源,从而优化资源分配,提高资源利用效率,避免不必要的虚拟机迁移.粗粒度优化算法是针对集群中多个物理节点之间虚拟机负载不均衡问题而提出的.该算法结合粒子群优化技术,选择将集群系统中热点物理机上的部分虚拟机迁移到最适合的冷点物理机上,从而避免高载物理机宕机.实验结果表明,这两种资源调度优化算法能够有效解决虚拟机资源分配不合理的问题,具有较好的适用性和应用前景.  相似文献   

18.
According to the “No Free Lunch (NFL)” theorem, there is no single optimization algorithm to solve every problem effectively and efficiently. Different algorithms possess capabilities for solving different types of optimization problems. It is difficult to predict the best algorithm for every optimization problem. However, the ensemble of different optimization algorithms could be a potential solution and more efficient than using one single algorithm for solving complex problems. Inspired by this, we propose an ensemble of different particle swarm optimization algorithms called the ensemble particle swarm optimizer (EPSO) to solve real-parameter optimization problems. In each generation, a self-adaptive scheme is employed to identify the top algorithms by learning from their previous experiences in generating promising solutions. Consequently, the best-performing algorithm can be determined adaptively for each generation and assigned to individuals in the population. The performance of the proposed ensemble particle swarm optimization algorithm is evaluated using the CEC2005 real-parameter optimization benchmark problems and compared with each individual algorithm and other state-of-the-art optimization algorithms to show the superiority of the proposed ensemble particle swarm optimization (EPSO) algorithm.  相似文献   

19.
This paper proposes a modified binary particle swarm optimization (MBPSO) method for feature selection with the simultaneous optimization of SVM kernel parameter setting, applied to mortality prediction in septic patients. An enhanced version of binary particle swarm optimization, designed to cope with premature convergence of the BPSO algorithm is proposed. MBPSO control the swarm variability using the velocity and the similarity between best swarm solutions. This paper uses support vector machines in a wrapper approach, where the kernel parameters are optimized at the same time. The approach is applied to predict the outcome (survived or deceased) of patients with septic shock. Further, MBPSO is tested in several benchmark datasets and is compared with other PSO based algorithms and genetic algorithms (GA). The experimental results showed that the proposed approach can correctly select the discriminating input features and also achieve high classification accuracy, specially when compared to other PSO based algorithms. When compared to GA, MBPSO is similar in terms of accuracy, but the subset solutions have less selected features.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号