首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 687 毫秒
1.
云计算资源负载短期预测是云计算平台实现资源高效管理和系统安全、稳定运行的重要前提和保障措施之一。为了其提高负载短期预测的预测精度,提出一种改进灰狼搜索算法优化支持向量机的短期云计算资源负载预测模型(EGWO-SVM)。首先介绍灰狼搜索算法(GWO)的基本原理;然后提出基于极值优化的改进GWO模型;最后根据最优参数建立短期资源负载预测模型,并通过仿真实验对EGWO-SVM的性能进行测试。实验结果表明,相对于参比模型,EGWO-SVM能更加准确地刻画云计算短期资源负载的复杂变化趋势,从而有效提升云计算资源负载短期预测的精度。  相似文献   

2.
为了实现云计算灵活性,动态伸缩性以及资源共享等特征,云计算系统需预知应用负载趋势,并为其分配所需资源.为实现这一目标,预测技术在云计算资源管理中必不可少.通过分析当前应用于云计算环境中的预测模型,总结了这些预测模型的特点,并在此基础上给出了基于预测技术的动态资源供应的一般流程.针对这些预测模型中存在的不足,从3个方面展望了云计算资源管理中预测模型可能的发展方向.  相似文献   

3.
云计算资源的负载预测有助于数据中心灵活智能地配置资源,保障数据中心安全平稳运行。该文提出一种基于经验模态分解和时间卷积网络的云资源组合预测模型,使用历史的资源负载预测未来的资源需求。对负载进行经验模态分解,以降低原云资源负载序列的复杂度,得到反映原负载序列趋势和变化信息的本征模态分量和残余分量;将这些分量构造后输入到时间卷积网络中进行建模预测。以Google集群数据集中的CPU负载序列为例,将该模型与常用的云资源预测模型进行对比验证。实验结果发现,相比于长短时记忆网络和时间卷积网络,该模型在平均绝对百分比误差指标上降低了36.32%和35.37%,预测精度有了明显提升。  相似文献   

4.
日益增多的应用部署在云端使得云数据中心的功耗波动剧烈,从而导致云数据中心资源利用率不平衡,高效的负载预测是解决该问题的关键技术。针对目前负载预测模型预测精度低、预测时间长的问题,建立一种基于门控循环单元(GRU)与长短期记忆(LSTM)网络的组合预测模型GRU-LSTM。该模型的网络结构包括3层,第一层采用GRU,利用GRU参数少、易收敛的特点减少模型训练时间,第二、第三层采用LSTM,结合LSTM参数多的优势提高模型的预测精度。在此基础上,对数据集作缺失值处理和标准化处理,使用随机森林算法对原始序列进行特征选择后得到一组新的序列值,将该序列值作为GRU-LSTM组合预测模型的输入,以对云计算资源进行高效预测。在集群公开数据集Cluster-trace-v2018上进行实验,结果表明,与传统的单一预测模型ARIMA、LSTM、GRU以及现有的组合预测模型ARIMA-LSTM、Refined LSTM等相比,GRU-LSTM模型预测结果的均方误差减少6~9,预测时间平均缩短约10%。  相似文献   

5.
论述了云计算资源负荷的特征及其短期预测的作用。首先利用多项式回归模型对GM(1,1)的预测结果进行一次优化,然后使用马尔科夫链对一次优化后的模型进行二次优化,最后运用布谷鸟搜索算法对二次优化后的灰色预测模型进行再度优化,建立基于多步优化的改进GM(1,1)灰色预测模型。实验结果表明,与其他预测模型相比,在云计算环境下的资源负荷短期预测应用中,该模型具有更高的预测精度,表现出良好的预测性能。所提方法能为云计算资源的高效调度和管理提供决策支持。  相似文献   

6.
针对云平台无法从单变量负荷序列中获取完整预测信息的问题,提出了一种基于主成分分析的多变量局域预测模型并应用于云计算底层资源的预测中。利用主成分分析法综合考虑多种底层资源间的影响关系,确定多变量相空间的嵌入维数,并与局域预测法相结合,由此建立多变量局域预测模型。仿真实验表明,基于主成分分析的多变量局域预测模型的预测精度高于单变量局域预测模型,是面向云计算底层资源预测的一种有效方法。  相似文献   

7.
张牧 《计算机科学》2013,40(Z11):60-62
针对云计算环境中虚拟机资源负载均衡问题,并为实现云计算下虚拟机资源负载均衡高效调度以满足用户的QoS需求,提出了一种基于多维QoS实现负载均衡的虚拟机资源调度方法。首先,在云计算环境下建立多维QoS网络环境的数学模型;然后,提出一种基于蚁群算法的优化算法,用于实现云计算环境中虚拟机资源高效调度;最后,在云仿真平台CloudSim上进行仿真实验。实验结果表明,相对于其他资源调度算法,所提算法能高效解决云计算下虚拟机资源调度问题,减少虚拟机资源负载均衡离差,具有更好的性能,能完全满足云计算下和多维QoS环境下虚拟机资源负载均衡的需求。  相似文献   

8.
针对数据中心服务器运行过程中CPU负载变化不能被准确预测的问题,分别建立了整合移动平均自回归模型(ARIMA)和长短时记忆人工神经网络(LSTM)的CPU负载预测模型。由于上述模型缺少对原始数据的数据处理和人工智能算法局限性的考虑,故构建了基于孤立森林算法(IF)、经验模态分解(EMD)和LSTM的CPU负载组合预测方法(IEBL)。对所建的三种模型进行参数求解和仿真并与实验结果对比,组合预测模型的平均相对误差降低了8.71%~18.72%。结果表明,组合预测模型预测精度明显高于单一预测模型,在服务器CPU负载预测领域有广泛的应用前景。  相似文献   

9.
云计算是一种基于信息网络的计算模式和服务模式,它将信息技术资源以服务方式动态、弹性地提供给用户,使用户可以按需使用。由于受到主机的启动时间、资源分配时间以及任务调度时间等因素的影响,在云环境下提供给用户的服务存在时延问题。因此,工作负载预测是云环境下一种重要的能源优化的方式。此外,由于云中工作负载的变化具有十分大的波动性,因此增加了预测模型的预测难度。提出了一种基于自回归模型和Elman神经网络的预测模型(Hybrid Auto Regressive Moving Average model and Elman neural network,HARMA-E),其使用ARMA模型进行预测,再使用ENN模型对ARMA模型的误差进行预测,通过修正ARMA的输出值得到最终的预测值。仿真实验结果表明,该预测模型能够较好地提升主机负载预测值的准确度。  相似文献   

10.
《软件》2017,(8):18-24
在云计算提供高效,便捷等强大服务的背后,是日益攀升的能耗问题。准确的预测云平台的负载(如CPU,内存的使用)在任务调度,云能效方面具有重要意义。在以往研究中,线性自回归算法在预测请求资源的粒度上存在不足,本文提出一种基于BP神经网络与遗传算法混合的负载预测方法,结合遗传算法良好的全局搜索能力与神经网络强大的非线性拟合能力,建立CPU资源的请求预测模型。实验通过Google的云平台数据作为训练,测试集。实验结果表明该方法有效的预测了CPU资源请求量,进而可以在此基础上调整服务资源,实现绿色调度。  相似文献   

11.
由于边缘云没有比中心云更强大的计算处理能力,在应对动态负载时很容易导致无意义的扩展抖动或资源处理能力不足的问题,所以在一个真实的边缘云环境中对微服务应用程序使用两个合成和两个实际工作负载进行实验评估,并提出了一种基于负载预测的混合自动扩展方法(predictively horizontal and vertical pod autoscaling,Pre-HVPA)。该方法首先采用机器学习对负载数据特征进行预测,并获得最终负载预测结果。然后利用预测负载进行水平和垂直的混合自动扩展。仿真结果表明,基于该方法所进行自动扩展可以减少扩展抖动和容器使用数量,所以适用于边缘云环境中的微服务应用。  相似文献   

12.
数据中心是企业信息化的重要组成部分,云计算的核心思想就是把数据中心整成一个资源池,对资源池进行统一的调度与管理。随着虚拟化技术的发展,目前对数据中心的资源利用率越来越高,但是还是存在大量资源浪费的情况,其原因在于当前对数据中心未来负载预测的算法还存在一定的局限性,如果对未来负载预测值远远大于实际负载情况,则导致大量的虚拟机资源利用率不高,反之则会导致虚拟机的资源使用率消耗增大,云平台中不同物理服务器之间的负载情况不平衡,一部分物理服务器负载过大,导致云计算平台响应时间过长。因此云计算平台选取一个合适的负载预测算法显得越发重要,如何权衡以上问题,是云计算里面的一个重点研究方向。负载预测选取时间序列预测算法中的三次指数平滑法,在该算法原有的静态系数基础之上,设计了一种动态系数提取方法。通过等距法把静态系数分成若干份进行训练,然后在预测过程中提取该时段误差最小值所对应的系数。在预测结束后,重新计算其误差,并通过均值法覆盖旧误差。实验结果表明,基于自适应三次指数平滑算法其预测误差明显小于静态系数所预测的误差,计算复杂度低,具有一定的应用价值。  相似文献   

13.
In order to reduce the energy consumption in the cloud data center, it is necessary to make reasonable scheduling of resources in the cloud. The accurate prediction for cloud computing load can be very helpful for resource scheduling to minimize the energy consumption. In this paper, a cloud load prediction model based on weighted wavelet support vector machine(WWSVM) is proposed to predict the host load sequence in the cloud data center. The model combines the wavelet transform and support vector machine to combine the advantages of them, and assigns weight to the sample, which reflects the importance of different sample points and improves the accuracy of load prediction. In order to find the optimal combination of the parameters, we proposed a parameter optimization algorithm based on particle swarm optimization(PSO). Finally, based on the WWSVM model, a load prediction algorithm is proposed for cloud computing using PSO-based weighted support vector machine. The Google cloud computing data set is used to verify the algorithm proposed in this paper by experiments. The experiment results indicate that comparing with the wavelet support vector machine, autoregressive integrated moving average, adaptive network-based fuzzy inference system and tuned support vector regression, the proposed algorithm is superior to the other four prediction algorithms in prediction accuracy and efficiency.  相似文献   

14.
为了满足性能要求,降低资源消耗,研究人员提出了许多伸缩调度的算法和方案。但是,它们中的大多数只作用在服务器或应用程序的当前状态,无论是资源实际的调度效果还是算法方案的适用性上都受到了影响和限制。本文提出一种基于长短期记忆网络和BP神经网络的面向应用的弹性伸缩算法。该算法包括工作负载预测模型、响应时间预测模型和资源调整策略模型,能够对云计算应用的工作负载和响应时间进行预测并给出合适的资源调度策略。为了提高工作负载预测的准确度,本文将卷积运算和长短期网络结合起来,更好地提取数据特征并进行准确地预测。而为了提高模型收敛速度,并有效避免模型过拟合的问题,本文则在BP神经网络中使用批标准化运算。在验证实验中,该算法工作负载预测的平均绝对百分误差降低到3.4×10-4,响应时间预测和调度策略模型也达到了不错的效果。在实际平台运行中,该弹性伸缩算法还能够根据Docker容器云平台实际需要提供合适的计算资源调度策略。实验结果表明,相比较其他模型,该弹性伸缩算法在工作负载预测和云平台计算资源调整方面具有较好的性能。  相似文献   

15.
Cloud computing is an innovative computing paradigm designed to provide a flexible and low-cost way to deliver information technology services on demand over the Internet. Proper scheduling and load balancing of the resources are required for the efficient operations in the distributed cloud environment. Since cloud computing is growing rapidly and customers are demanding better performance and more services, scheduling and load balancing of the cloud resources have become very interesting and important area of research. As more and more consumers assign their tasks to cloud, service-level agreements (SLAs) between consumers and providers are emerging as an important aspect. The proposed prediction model is based on the past usage pattern and aims to provide optimal resource management without the violations of the agreed service-level conditions in cloud data centers. It considers SLA in both the initial scheduling stage and in the load balancing stage, and it looks into different objectives to achieve the minimum makespan, the minimum degree of imbalance, and the minimum number of SLA violations. The experimental results show the effectiveness of the proposed system compared with other state-of-the-art algorithms.  相似文献   

16.
面向云计算平台自适应资源监测方法   总被引:5,自引:1,他引:4       下载免费PDF全文
资源性能和负载监测是云计算平台中一个基础性技术问题。面向云计算平台的异构分布计算环境,提出了一种自适应的资源信息和负载监控方法。自适应的负载监控方法将周期性的拉模式和事件驱动的推模式结合起来,能够根据异构分布计算系统运行环境和系统资源负载的变化,适应性地发布并获取系统的负载和资源信息。实验表明,自适应的负载监控方法的系统监控效率较周期性监控方法有明显提高。  相似文献   

17.
The rapid growth of computational power demand from scientific, business, and Web applications has led to the emergence of cloud-oriented data centers. These centers use pay-as-you-go execution environments that scale transparently to the user. Load prediction is a significant cost-optimal resource allocation and energy saving approach for a cloud computing environment. Traditional linear or nonlinear prediction models that forecast future load directly from historical information appear less effective. Load classification before prediction is necessary to improve prediction accuracy. In this paper, a novel approach is proposed to forecast the future load for cloud-oriented data centers. First, a hidden Markov model (HMM) based data clustering method is adopted to classify the cloud load. The Bayesian information criterion and Akaike information criterion are employed to automatically determine the optimal HMM model size and cluster numbers. Trained HMMs are then used to identify the most appropriate cluster that possesses the maximum likelihood for current load. With the data from this cluster, a genetic algorithm optimized Elman network is used to forecast future load. Experimental results show that our algorithm outperforms other approaches reported in previous works.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号