首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
为了对特定计算系统的性能衰退程度进行诊断,需要分析出系统资源耗费规律,这一过程是整个数据分析的重点。本文采用小波的数据平滑技术,对影响系统性能的相关资源数据进行分析,对计算系统的性能诊断进行了介绍。  相似文献   

2.
为了提高软件衰退预测的精度,采用了多重分形分析方法,以系统资源参数时间序列为研究对象,提出了一种定性和定量相结合的分析方法,用以研究其波动规律.定性分析阶段,借鉴分形理论分析影响软件性能的系统资源参数,揭示参数的波动具有分形特性;且其多重分形谱特征能刻画系统运行过程中随时间变化的情况.定量预测阶段,提出了一种多维的Hlder指数计算方法,用于计算多个资源参数序列的Hlder指数,并采用自回归移动平均模型(ARMA)预测Hlder指数.最后进行了实证分析,结果表明,该方法具有较好的定性分析和定量预测能力.  相似文献   

3.
徐建  游静  张琨  刘凤玉 《计算机工程》2006,32(12):24-26
应用小波分析和统计分析相结合的方法来处理系统资源使用相关的数据,实现了在线的软件衰退检测和资源消耗趋势估计。设计一种基于Haar小波分析的数据平滑技术消除噪声,使用统计分析技术来分析预处理后的数据,以检测衰退的出现,估计资源消耗的趋势斜率,给出资源到达预警值的时间,确定系统的关键性资源。使用真实环境采集的数据进行实验,实验结果表明该方法能有效地检测出软件衰退并给出每一种资源耗尽的估计时间,为恢复策略的制定提供了依据。  相似文献   

4.
游静  董小龙  苏兵  孙玉强 《计算机科学》2012,39(10):254-257
传统的性能监控系统通过监控系统资源的使用情况来间接地反映和评价系统的运行状态,但是该方法与用户感知的系统性能有较大出入。对于终端用户,其最直接的体验就是请求的响应时间,它受系统运行过程中多种因素的综合影响。基于基因表达式编程理论,提出了一种对计算系统性能进行多元评价的基因表达式编程算法,其通过对多种系统资源数据的分析,建立响应时间对多种系统资源的数学模型,以此预测系统性能的变化。最后,针对具体的仿真环境和采样数据,采用该算法获得了响应时间的多元非线性模型。结果表明,该模型能较好地预测系统的性能变化情况。  相似文献   

5.
在嵌入式天线交换柜系统设计过程中,由于资源有限,不能无限制的增强系统的处理能力,又不能使系统的吞吐率太低,使应用程序无法正常运转,系统性能与资源使用率如何最佳配置是一个问题。本文根据排队论中的开环排队网络模型,将嵌入式天线交换柜系统抽象为一个排队服务系统,而将网络上到达的数据作为顾客,这些顾客的到来是符合一定的概率分布的,这样就可以根据系统要达到的性能推算出系统资源的配置方案,同时也可以确定系统相应的目标参量,根据这个方案来分配系统资源可以达到性能和资源最优组合。  相似文献   

6.
林怀清 《微计算机信息》2007,23(1Z):75-76,277
在嵌入式天线交换柜系统设计过程中,由于资源有限,不能无限制的增强系统的处理能力,又不能使系统的吞吐率太低,使应用程序无法正常运转,系统性能与资源使用率如何最佳配置是一个问题。本文根据排队论中的开环排队网络模型,将嵌入式天线交换柜系统抽象为一个排队服务系统,而将网络上到达的数据作为顾客,这些顾客的到来是符合一定的概率分布的,这样就可以根据系统要达到的性能推算出系统资源的配置方案,同时也可以确定系统相应的目标参量,根据这个方案来分配系统资源可以达到性能和资源最优组合。  相似文献   

7.
软件再生理论认为,计算系统运行过程中的系统资源损耗是影响系统性能的主要因素。设计一个性能监控系统,通过采集和分析资源使用情况,适时释放被损耗的资源可以有效保证系统的持续高性能。监控系统采用C/S模式以减轻监控端的负载,保证监控端的轻量级,同时实现对监控端的异步监控;基于自组织映射网络对数据的分析,实现对监控端监控参数的自适应调节;提供多种数学模型对系统性能变化进行分析和预测;设计了简单有效的决策方法支持系统的重启控制;最后通过实验证明自适应采集策略有效减少了数据采集和传输量,保证了监控端的轻量级、低负载,尽可能地降低了监控系统本身对被监控系统的影响。  相似文献   

8.
随着软件应用系统的复杂性不断提高,系统性能衰退的现象也日益普遍,研究表明计算机应用系统性能的衰退现象主要是由于软件的老化产生的.为了缓解软件老化问题、减少软件性能衰退造成的损失,最终实现一种可准确对系统当前老化状态的预测模型,本文提出一种面向组件的软件老化抗衰策略.该策略在以往研究的基础上,细化了软件再生粒度,将老化的预测和再生扩展到应用组件级.使用灰色预测方法实现在可利用的系统资源不足的情况下的老化状态的预测.还应用Matlab对该模型进行了模拟实验.实验结果表明该策略具有良好的可用性和有效性,延长了软件系统的运行时间,提高了用户的访问成功率,并进一步增强了系统稳定性.  相似文献   

9.
一种基于资源操作域的主机防护模型   总被引:2,自引:0,他引:2  
论文提出了一种基于资源操作域的主机防护模型,该模型抛开了基于网络攻击数据特征码匹配构建主机防护系统的传统思路,从系统资源入手,立足于控制进程行为,力求建立一个授权访问系统资源的进程以及操作方法的最小集合。讨论了该模型的构建和运用方法,包括:通过采样、学习和修正这一反复过程构建目标系统的资源操作域;设置防护检查点、截获系统调用、基于资源操作域的检索和匹配等操作进行行为合法性验证。最后,对该模型进行了性能分析。  相似文献   

10.
针对遥感卫星数据预处理系统同时对多卫星数据处理任务进行调度时,因资源分配不合理,导致计算资源浪费、系统吞吐量低、无法满足卫星数据时效性要求的问题,提出了一种基于预处理任务性能及预处理系统工作流特性的调度模型。该模型通过研究预处理任务算法的一般特征,对不同资源分配情况下的任务执行时间进行预估,并根据预处理任务工作流对卫星数据产品所需总时间进行预估;在此基础上,采用基于任务时效性和系统资源利用率的二次资源动态分配算法对预处理任务进行调度。实验结果表明,该调度模型在满足多卫星数据处理的时效性要求的同时,合理地减小调度过程中存在的资源浪费,提高了系统的吞吐量。  相似文献   

11.
Hardware parallelism should be exploited to improve the performance of computing systems. Single instruction multiple data (SIMD) architecture has been widely used to maximize the throughput of computing systems by exploiting hardware parallelism. Unfortunately, branch divergence due to branch instructions causes underutilization of computational resources, resulting in performance degradation of SIMD architecture. Graphics processing unit (GPU) is a representative parallel architecture based on SIMD architecture. In recent computing systems, GPUs can process general-purpose applications as well as graphics applications with the help of convenient APIs. However, contrary to graphics applications, general-purpose applications include many branch instructions, resulting in serious performance degradation of GPU due to branch divergence. In this paper, we propose concurrent warp execution (CWE) technique to reduce the performance degradation of GPU in executing general-purpose applications by increasing resource utilization. The proposed CWE enables selecting co-warps to activate more threads in the warp, leading to concurrent execution of combined warps. According to our simulation results, the proposed architecture provides a significant performance improvement (5.85 % over PDOM, 91 % over DWF) with little hardware overhead.  相似文献   

12.
大数据计算中存在流计算、内存计算、批计算和图计算等不同模式,各种计算模式有不同的访存、通信和资源利用等特征。GPU异构集群在大数据分析处理中得到广泛应用,然而缺少研究GPU异构集群在大数据分析中的计算模型。多核CPU与GPU协同计算时不仅增加了计算资源的密度,而且提高节点间和节点内的通信复杂度。为了从理论上研究GPU与多核CPU协同计算问题,面向多种计算模式建立一个多阶段的协同计算模型(p-DCOT)。p-DCOT以BSP大同步并行模型为核心,将协同计算过程分成数据层、计算层和通信层三个层次,并且延用DOT模型的矩阵来形式化描述计算和通信行为。通过扩展p-DOT模型描述节点内和节点间的协同计算行为,细化了负载均衡的参数并证明时间成本函数,最后用典型计算作业验证模型及参数分析的有效性。该协同计算模型可成为揭示大数据分析处理中协同计算行为的工具。  相似文献   

13.
对于身份认证机制中的安全字符串恢复,字典结合变换规则是一种常用的方法。通过变换规则的处理,可以快速生成大量具有针对性的新字符串供验证使用。但是,规则的处理过程复杂,对处理性能、系统功耗等有很高的要求,现有的工具和研究都是基于软件方式进行处理,难以满足实际恢复系统的需求。为此,文中提出了基于异构计算平台的规则处理器技术,首次使用可重构FPGA硬件加速规则的处理过程,同时使用ARM通用计算核心进行规则处理过程的配置、管理、监控等工作,并在Xilinx Zynq XC7Z030芯片上进行了具体实现。实验结果表明,在典型情况下,该混合架构的规则处理器相比于单纯使用ARM通用计算核心,性能提升了214倍,规则处理器的运行性能优于Intel i7-6700 CPU,性能功耗比相比NVIDIA GeForce GTX 1080 Ti GPU有1.4~2.1倍的提升,相比CPU有70倍的提升,有效提升了规则处理的速率和能效。实验数据充分说明,基于异构计算平台,采用硬件加速的规则处理器有效解决了规则处理中的速率和能效问题,可以满足实际工程需求,为整个安全字符串恢复系统的设计奠定了基础。  相似文献   

14.
The increasing deployment of artificial intelligence has placed unprecedent requirements on the computing power of cloud computing. Cloud service providers have integrated accelerators with massive parallel computing units in the data center. These accelerators need to be combined with existing virtualization platforms to partition the computing resources. The current mainstream accelerator virtualization solution is through the PCI passthrough approach, which however does not support fine-grained resource provisioning. Some manufacturers also start to provide time-sliced multiplexing schemes and use drivers to cooperate with specific hardware to divide resources and time slices to different virtual machines, which unfortunately suffer from poor portability and flexibility. One alternative but promising approach is based on API forwarding, which forwards the virtual machine''s request to the back-end driver for processing through a separate driver model. Yet, the communication due to API forwarding can easily become the performance bottleneck. This paper proposes Wormhole, an accelerator virtualization framework based on the C/S architecture that supports rapid delegated execution across virtual machines. It aims to provide upper-level users with an efficient and transparent way to accelerate the virtualization of accelerators with API forwarding while ensuring strong isolation between multiple users. By leveraging hardware virtualization feature, the framework minimizes performance degradation through exitless inter-VM control flow switch. Experimental results show that Wormhole''s prototype system can achieve up to 5 times performance improvement over the traditional open-source virtualization solution such as GVirtuS in the training test of the classic model.  相似文献   

15.
Volunteer computing systems offer high computing power to the scientific communities to run large data intensive scientific workflows. However, these computing environments provide the best effort infrastructure to execute high performance jobs. This work aims to schedule scientific and data intensive workflows on hybrid of the volunteer computing system and Cloud resources to enhance the utilization of these environments and increase the percentage of workflow that meets the deadline. The proposed workflow scheduling system partitions a workflow into sub-workflows to minimize data dependencies among the sub-workflows. Then these sub-workflows are scheduled to distribute on volunteer resources according to the proximity of resources and the load balancing policy. The execution time of each sub-workflow on the selected volunteer resources is estimated in this phase. If any of the sub-workflows misses the sub-deadline due to the large waiting time, we consider re-scheduling of this sub-workflow into the public Cloud resources. This re-scheduling improves the system performance by increasing the percentage of workflows that meet the deadline. The proposed Cloud-aware data intensive scheduling algorithm increases the percentage of workflow that meet the deadline with a factor of 75% in average with respect to the execution of workflows on the volunteer resources.  相似文献   

16.
对于分布式高性能计算系统来说,模拟免疫机理实现计算系统的性能监控和评估是一个崭新的研究途径.分析和比较了免疫机理和计算系统抗衰之间的异同,构建了基于多Agent的系统抗衰逻辑模型,模拟免疫机理对计算系统的性能进行监控、诊断和建立性能衰退的数学模型,并在仿真实验中评价了性能监控对于所监控的计算节点的影响.在此基础上以一个音像资源事务处理系统为背景进行了应用研究,给出了一个两阶段超指数分布的数学模型来评估性能.仿真实验和应用研究的结果表明方法是有效可行的.  相似文献   

17.
高性能计算机主要应用于传统的科学计算领域,而在云计算时代,数据密集型应用成为一大类新型应用,已经变得越来越重要.主要探索如何在高性能计算机上高效地进行海量数据处理,使高性能计算机在进行科学计算的同时,能够非常好地支持数据密集型应用,拓展高性能计算机的应用领域.分析了高性能计算机上MapReduce模型实现和部署的可行性之后,在高性能计算环境中进行了实验.实验结果表明,存储系统的并行I/O能力不能充分发挥,是造成系统无法高效运行的主要瓶颈.而导致这个性能瓶颈的原因,是高并发带来的对集群文件系统资源的竞争和冲突.最后,提出了几种解决集群文件系统资源冲突的方案,这是今后的研究方向.  相似文献   

18.
【目的】为推动精准医学研究的发展,世界各国相继开展大规模人群队列基因组测序计划,通过对数以万计个体进行全基因组测序,构建人群特异的基因组变异图谱。这些海量基因组数据产出,对计算速度和计算通量提出了新的要求,迫切需要速度更快、通量更高的计算平台来处理与解读这些生物序列信息。由于基因组数据自身的特点、数据解析过程的多样性和复杂性,致使在大规模人群基因组变异解析中高通量计算资源的使用效率低、计算速度慢、耗时长,服务器与本地数据交换不便,因此需要针对基因组变异解析进行多方面优化,通过软硬件开发来解决应用中存在的多种问题。本文拟对这些优化方法进行分析和综述。【方法】在高通量计算系统中,系统IO瓶颈问题是基因组变异解析并行化效率低的主要原因,通常采用基于分布式非结构化存储数据库以及对象存储系统,以提升IO的大规模可扩展能力,解决分析流程中存在的IO问题;同时通过基因组数据的高效压缩算法,可减少数据IO和传输压力。为了加快基因组数据解析速度,可在软件上采用神经网络等算法优化基因组解析方法,在硬件上使用FPGA(现场可编程逻辑门阵列)或GPU异构计算,以提高数据处理速度。【结果】综合来看,以上多方面的优化可以大幅提升基因组数据分析中高通量计算的性能,解决基因组数据处理中的存储墙问题,提高高通量计算资源的使用效率,大大减少全基因组变异解析的计算时间。【结论】高通量计算在基因组数据解析应用中存在的多种问题,可通过软硬件开发和优化得以解决,从而显著改进高通量计算在大规模人群队列变异解析应用中的计算效率,促进今后人群队列基因组研究与应用的广泛开展。  相似文献   

19.
Cloud computing has evolved as an efficient paradigm to process big data applications. Performance evaluation of cloud center is a necessary prerequisite to guarantee quality of service. However, it is a challenge task to effectively analyze the performance of cloud service due to the complexity of cloud resources and the diversity of big data applications. In this paper, we leverage queuing theory and probabilistic statistics to propose a performance evaluation model for cloud center under big data application arrivals. In this model, the tasks (i.e., big data applications) are with Poisson arrivals, each task is divided into lots of parallel subtasks, and the number of subtasks follows a general distribution. The model allows to calculate the important performance indicators such as mean number of subtasks in the system, the probability that a task obtains immediate service, task waiting time and blocking probability. The model can also be used to predict the time cost of performing application. Finally, we use the simulations and benchmarking running WordCount and TeraSort applications on a Hadoop platform to demonstrate the utility of the model.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号