首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
一种双匹配动态调度算法   总被引:6,自引:0,他引:6  
支青  蒋昌俊 《信息与控制》2005,34(5):532-538
提出了适于异构环境独立任务调度的双匹配动态调度算法(BM算法).BM算法将任务与处理机实现双匹配,使大部分任务在执行时间最短而且完成时间最早的处理机上执行.对于无法实现双匹配的任务,采用最早完成时间最小者优先的策略进行调度.BM算法可以同时满足负载均衡和高吞吐率两个目标.BM算法与通常用作评测基准的Min-min算法的比较结果表明,BM算法的运行时间远少于Min-min算法,其调度跨度比Min-min算法减少约9%.  相似文献   

2.
随着移动终端处理的数据量及计算规模不断增加,为降低任务处理时延、满足任务的优先级调度需求,结合任务优先级及时延约束,提出了基于任务优先级的改进min-min调度算法(task priority-based min-min,TPMM)。该算法根据任务的处理价值及任务的数据量计算任务的优先级,结合任务截止时间、服务器调度次数制定资源匹配方案,解决了边缘网络中服务器为不同优先级的用户进行计算资源分配的问题。仿真实验结果表明,该算法可以均衡服务器利用率,并有效降低计算处理的时延,提高服务器在任务截止处理时间内完成任务计算的成功率,相比min-min调度算法,TPMM算法最多可降低78.45%的时延,提高80%的计算成功率;相比max-min调度算法,TPMM算法最多可降低80.15%的时延并提高59.7%的计算成功率;相比高优先级(high priority first,HPF)调度算法,TPMM算法最多降低59.49%的时延,提高57.7%的计算成功率。  相似文献   

3.
物联网环境下具有顺序约束关系的静态任务表调度算法   总被引:1,自引:0,他引:1  
叶佳  周鸣争 《计算机应用》2014,34(9):2491-2496
针对物联网异构调度环境下并行计算的静态任务调度问题,提出了一种基于最早完成时间策略改变调度顺序的表调度算法HDPTS。该算法针对现有表调度算法在调度前不能准确地确定调度顺序的问题,在IHEFT算法的基础上添加了一个动态优先级调度策略,当节点的前驱任务都已经完成调度任务时,就改变该节点的调度优先级。任务优先级的计算在所有前驱任务到达这个任务的最晚完成时间与所有资源上最大可以使用时间之间取最大值的基础上,同时考虑到分配到各个资源上的任务对后继任务的影响和资源上的负载情况,以及上行权重的计算值和对出口任务的影响,使得优先级计算更加合理,能够根据任务分配动态合理改变任务调度顺序。通过随机生成一个算例进行测试,结果表明HDPTS比IHEFT、HEFT在调度长度方面减少14.29%;对大量随机产生的特定结构的有向无环图(DAG)进行测试,测试结果显示HDPTS算法比IHEFT、HEFT和LDCP算法更有效。  相似文献   

4.
林强  吴国伟  万安民  于军帅 《计算机科学》2016,43(Z11):278-281, 300
提出了一种无线网络控制系统的时间空间混合优先级调度算法(STS)。该算法综合考虑了无线网络控制系统中机器人之间与任务区域的距离和任务有效截止期,将时间和距离两个因素通过多个步骤逐步量化,最终形成最优的优先级队列,移动机器人根据优先级队列逐个解决区域的任务需求。为了验证STS算法的性能,做了大量的仿真实验来证明时间空间混合优先级算法的优势。实验结果表明,在确保高优先级调度成功并提高系统稳定性的前提下,时间空间混合优先级算法在任务请求吞吐率、任务解决成功率和平均响应时间等方面与之前的算法相比都具有更好的调度表现。  相似文献   

5.
信号任务调度算法是提高信息物理系统执行效能的关键,而最小空闲时间优先算法(LSF)、最早截止时间优先算法(EDF)和最大价值优先算法(HVF)在系统满载的情况下无法很好地完成任务调度并且系统能耗很高。为此,提出一种改进型调度算法。将任务能耗、任务完成价值和任务紧迫程度相结合,通过引入任务调度优先级和任务实际调度优先级的形式,实现任务的动态调度。实验结果表明,对于同一个任务集,在完成相同调度任务数量的情况下,改进算法的系统能耗小于采用LSF算法和EDF算法的系统能耗。系统满载时,在完成任务总价值相同的情况下,采用改进算法的系统所需要的能耗比HVF算法更少。  相似文献   

6.
任务调度是高性能计算系统中的基本问题之一。解决此类NP难问题的经典启发式算法都假定目标处理机全互连,调度任务时可忽略节点间通信,这显然与实际计算环境不符。为此,文中提出一种在调度任务时同时考虑通信边调度的表调度算法。在边调度时,提出了一种基于最短路径搜索算法的最早通信完成路径查找算法(EFCS),并采用插入式链路策略实现通信边的动态调度,而对处理机网络异构环境下的任务优先级计算问题,受HEFT算法启发,提出异构系统递归优先权计算方法,按非升序排列获得各任务优先级。为了降低算法的执行时间,文中还提出了理论加速比为O(PPE)的并行算法。以随机产生程序任务图和DSP应用程序实例为数据源,在两类不同任意处理机网络目标系统上进行的模拟实验结果表明:本算法明显优于考虑通信竞争的静态表调度算法和不考虑通信竞争的表调度算法,特别是在高通信率应用程序中优势更明显。  相似文献   

7.
参数扫描应用在计算网格环境下扮演十分重要的角色。在Wingrid项目中,我们提出并实现了一种面向参数扫描的自适应调度机制。客户端,主节点和从节点的调度基础设施,以及基于领导节点的通信系统能够改善调度的效率。同时,我们比较了自适应workqueue算法和标准启发式调度算法。实验结果显示大网络延迟下,启发式调度算法效率高于workqueue算法,在各种启发式算法中,min-min启发式算法的任务完成时间最小。  相似文献   

8.
iVCE中基于可信评价的资源调度研究   总被引:2,自引:0,他引:2  
邓晓衡  卢锡城  王怀民 《计算机学报》2007,30(10):1750-1762
随着网格计算、P2P、Web服务技术在电子商务、电子政务领域应用的不断扩展,基于Internet的资源共享的安全可信问题变得越来越重要.该文在基于Internet的虚拟计算环境(Interenet-Based Virtual Computing Environment,iVCE)的资源共享的用户与资源关于身份可信、能力可信、行为可信的信任模型的基础上,提出了一种可信优化的资源调度算法.算法基本思想在于根据用户对资源可信的需求,对虚拟计算环境中的自主元素可信度综合考察与评价,以用户可信满意度为优化调度目标调度资源,进而基于min-min算法优化任务执行时间,满足了资源调度的可信保障,同时具有较好的性能.仿真实验结果表明可信优化调度算法能够在iVCE的信任度效益,最早完工时间,失效服务请求数,资源利用率等性能参数方面明显优于min-min和max-min算法.  相似文献   

9.
一种实时异构嵌入式系统的任务调度算法   总被引:9,自引:0,他引:9       下载免费PDF全文
异构分布式系统已被广泛应用在实时嵌入式系统中,而调度算法是在进行嵌入式系统综合时,确保系统实现性能目标的一个关键问题,这是一个NP-完全问题.现有的算法主要是启发式算法,性能还有待提高.提出了一个异构分布式系统的动态BLevel优先(dynamic BLevel first,简称DBLF)算法,算法选择就绪任务中动态BLevel值最大的任务进行调度,用插入法为任务分配处理器,遵循以下3个插入原则:满足任务先后顺序关系;任务的最早完成时间(earliest-finish-time,简称EFT)最小;在EFT相等时,优先分配到利用率较低的处理器上.与现有算法比较可以看出,DBLF算法可以有效降低调度长度.  相似文献   

10.
针对现存任务调度算法优先级选取过于单一、冗余任务处理较晚的问题,提出一种基于加权优先级的任务调度算法--WPTS算法.该算法综合考虑任务3个属性的加权值以决定任务被处理的先后次序,从而克服了任务选取时的单一性问题.在将任务分配到处理器的过程中,保证任务优先调度到完成时间最早的处理器上.同时,引入冗余任务处理过程,及时消除冗余任务,达到对处理器空闲时间段进行有效回收、减少处理器调度长度的效果.性能对比实验表明,WPTS算法较CPFD算法、HCPFD算法和HDEFT算法能取得更好的性能.  相似文献   

11.
本文基于Min-min算法和Sufferage算法提出了基于任务调度损失的最小最早完成时间算法(Sufferage Min-min,SMM).该算法将任务调度损失引入Min-min算法,选取最早完成时间较小的k个任务,再优先对其中任务调度损失最大的一个进行调度.SMM算法克服了Min-min算法单纯追求局部最优而缺少全局意识的缺点.测试表明,SMM算法可以做到调度跨度低与平均等待时间小的统一,在综合性能上较Min-min算法有所提高.  相似文献   

12.
针对网格计算中的多目标网格任务调度问题,提出了一种基于自适应邻域的多目标网格任务调度算法。该算法通过求解多个网格任务调度目标函数的非劣解集,采用自适应邻域的方法来保持网格任务调度多目标解集的分布性,尝试解决网格任务调度中多目标协同优化问题。实验结果证明,该算法能够有效地平衡时间维度和费用维度目标,提高了资源的利用率和任务的执行效率,与Min-min和Max-min算法相比具有较好的性能。  相似文献   

13.
Managing computing resources in a hypercube entails two steps. First, a job must be chosen to execute from among those waiting (job scheduling). Next a particular subcube within the hypercube must be allocated to that job (processor allocation). Whereas processor allocation has been well studied, job scheduling has been largely neglected. The goal of this paper is to compare the roles of processor allocation and job scheduling in achieving good performance on hypercube computers. We show that job scheduling has far more impact on performance than does processor allocation. We propose a new family of scheduling disciplines, called Scan, that have particular performance advantages. We show that performance problems that cannot be resolved through careful processor allocation can be solved by using Scan job-scheduling disciplines. Although the Scan disciplines carry far less overhead than is incurred by even the simplest processor allocation strategies, they are far more able to improve performance than even the most sophisticated strategies. Furthermore, when Scan disciplines are used, the abilities of sophisticated processor allocation strategies to further improve performance are limited to negligible levels. Consequently, a simple O(n) allocation strategy can be used in place of these complex strategies  相似文献   

14.
基于动态抢占阈值的实时调度算法集非抢占调度和纯抢占调度的特点,既减少了由于过多的随意抢占造成的CPU资源浪费,又保证了较高的CPU资源利用率。然而,现有的任务选择算法运行时的额外代价严重影响了系统的整体性能。针对这个问题,本文提出一种使用“选择树”作为任务队列结构的、时间复杂度为O(|log2n|)的快速任务选择算法。本文从理论上证明该算法正确性的同时,在使用ARM9芯片的Nokia智能手机上验证了该算法在嵌入式实时系统中的有效性。实验表明,该算法在充分利用处理器的同时能够有效降低动态阈值调度算法的额外代价。  相似文献   

15.
Scheduling is a fundamental issue in achieving high performance on metacomputers and computational grids. For the first time, the job scheduling problem for grid computing on metacomputers is studied as a combinatorial optimization problem. A cost model is proposed for modeling communication heterogeneity on computational grids. A processor allocation algorithm is developed which always finds an optimal processor allocation that minimizes the effective execution time of a job when the job is being scheduled. It is proven that the list scheduling (LS) algorithm can achieve reasonable worst-case performance bound in grid environments supporting distributed supercomputing with large applications. We compare the performance of various job scheduling and processor allocation algorithms for grid computing on metacomputers. We evaluate the performance of 128 combinations of two job scheduling algorithms, four initial job ordering strategies, four processor allocation algorithms, and four metacomputers by extensive simulation. It is found that the combination of largest job first (LJF) initial job ordering and minimum effective execution time (MEET) or largest machine first (LMF) processor allocation algorithm yields the best average-case performance, and the choice of FCFS and LS depends on the range of job sizes. It is also observed that communication heterogeneity does have significant impact on schedule lengths.  相似文献   

16.
基于网格技术的校园网作业服务模型和调度算法   总被引:1,自引:0,他引:1  
黄景廉  钟绍波 《计算机应用》2009,29(1):291-282,
为了消除校园网的信息孤岛,降低资源浪费,实现资源充分共享,提出了基于网格技术的校园网作业服务模型,并设计和实现了基于可信度遗传策略的作业调度方法。该算法充分结合遗传算法的优点,从而使调度系统具有了一定的自主性和智能性。实验结果表明该算法收敛速度快,全局寻优能力强,整体性能优于遗传算法和Min-min作业调度算法。  相似文献   

17.
异构计算中的负载共享   总被引:18,自引:0,他引:18  
曾国荪  陆鑫达 《软件学报》2000,11(4):551-556
在基于消息传递的异构并行计算系统中 ,各处理器或计算机具有自制和独立地调度、执行作业的能力 .当一个可划分的作业初始位于一个处理器上时 ,为了提高计算性能 ,该处理器可以请求其他异构处理器负载共享 ,参与协同计算 ,减少作业的完成时间 .该文提出了异构计算负载共享的一种方案 .首先 ,调用负载共享协议 ,收集当前各处理器参与负载共享的许可数据 ,包括共享时间段、计算能力等 .然后 ,构造一个作业量与作业完成时间之间的关系函数 .该函数是选择一组合适的处理器群、优化作业划分、作业完成时间最小的理论基础 .最  相似文献   

18.
基于优先级和优化完成时间的网格调度算法   总被引:1,自引:0,他引:1  
网格由大量的异构资源组成,具有复杂性、动态性和自治性特点。高效的网格调度算法可以充分利用网格系统资源,提高网格处理应用程序的能力。Min min算法是一个简单、快速、有效的调度算法,但由于总是先分配小任务而不能确保负载平衡。文中首先对网格系统中任务的数据传输和执行进行分析,计算并优化Min min算法的任务完成时间,再根据任务需求赋予任务优先级,通过优先级安排任务调度,提高算法负载平衡能力,最后在上述分析基础上提出POTE Min min(Priority and Overlap Transmission and Execution Min min)调度算法。  相似文献   

19.
In a heterogeneous multi-cluster (HMC) system, processor allocation is responsible for choosing available processors among clusters for job execution. Traditionally, processor allocation in HMC considers only resource fragmentation or processor heterogeneity, which leads to heuristics such as Best-Fit (BF) and Fastest-First (FF). However, those heuristics only favor certain types of workloads and cannot be changed adaptively. In this paper, a temporal look-ahead (TLA) method is proposed, which uses an allocation simulation process to guide the decision of processor allocation. Thus, the allocation decision is made dynamically according to the current workload and system configurations. We evaluate the performance of TLA by simulations, with different workloads and system configurations, in terms of average turnaround time. Simulation results indicate that, with precise runtime information, TLA outperforms traditional processor allocation methods and has up to an 87% performance improvement.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号