首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
为合理利用多处理器资源,对任务调度算法进行研究,针对现有任务调度算法在任务规模较大的情况下全局寻优能力方面的不足,提出基于禁忌搜索的多处理器任务调度算法。对任务图不设任何约束条件,利用基于任务复制的TDS算法产生高质量的初始调度以降低算法复杂度,利用禁忌搜索算法全局寻优得到最优调度。实验结果表明,该算法可以有效降低任务调度长度,减少所需处理器数目。  相似文献   

2.
为提高异构多处理器任务调度的执行效率,充分发挥多处理器并行性能,提出一种基于粒子群优化的异构多处理器任务调度算法-PSOASA算法.PSOASA算法以求得任务最短完成时间为目标,首先采用整数矩阵对粒子进行编码,并定义交换操作更新粒子状态,实现粒子搜索空间到离散空间的映射,使连续的粒子群优化算法适用于离散的异构多处理器任务调度问题,同时引入模拟退火算法,克服粒子群算法的“早熟”收敛现象,避免求得的解陷入局部最优.实验结果表明,PSOASA算法的执行效率优于目前广泛采用的遗传算法,有效地降低任务执行时间,减少了迭代次数,适用于异构多处理器环境大规模任务调度.  相似文献   

3.
为提高异构多处理器任务调度的执行效率,充分发挥多处理器并行性能,提出一种基于粒子群优化的异构多处理器任务调度算法-PSOASA算法.PSOASA算法以求得任务最短完成时间为目标,首先通过建立新的编码方式和粒子更新公式实现粒子搜索空间到离散空间的映射,使连续的粒子群优化算法适用于离散的异构多处理器任务调度问题,同时通过引入模拟退火算法,克服粒子群算法的“早熟”收敛现象,避免求得的解陷入局部最优.实验结果表明,PSOASA算法的执行效率优于目前广泛采用的遗传算法,有效地降低任务的执行时间,减少了迭代次数,适用于异构多处理器环境大规模任务调度.  相似文献   

4.
布谷鸟搜索算法是一种新型元启发式优化算法,该算法受到自然界中布谷鸟的巢寄生行为启发而提出。首先分析了布谷鸟搜索算法的仿生原理和数学描述,采用基于工序的编码方式对最小化最大完工时间的作业车间调度问题进行布谷鸟搜索算法求解。通过典型算例进行仿真实验,测试结果表明布谷鸟搜索算法求解作业车间调度问题的可行性和有效性,优于萤火虫算法和基本粒子群算法,是解决生产调度问题的一种有效方法。  相似文献   

5.
李静梅  张博  王雪 《计算机应用研究》2012,29(10):3621-3624
为提高异构多处理器任务调度的执行效率,充分发挥多处理器并行性能,提出一种基于粒子群优化的异构多处理器任务调度算法——FPSOTTS算法。该算法以求得任务最短完成时间为目标,首先通过建立新的编码方式和粒子更新公式实现粒子搜索空间到离散空间的映射,使连续的粒子群优化算法适用于离散的异构多处理器任务调度问题;同时通过引入禁忌算法进行局部搜索,克服粒子群算法的早熟收敛现象,避免陷入局部最优。实验结果表明,FPSOTTS算法的执行效率优于Min-min算法和遗传算法,有效地降低任务的执行时间。FP-SOTTS算法很好地解决了异构多处理器任务调度问题,并且适合于大规模并行任务调度。  相似文献   

6.
针对同构多处理器系统提出一种基于双优先级的实时任务调度算法.对偶发任务进行接受测试,进一步提高了系统对偶发任务调度的成功率.模拟结果表明,当多核处理器系统利用率达到极限时,该算法依然能够在完成强实时周期任务的成功调度前提下,保证软实时周期任务和偶发任务具有较高的调度成功率.  相似文献   

7.

针对多处理器系统任务调度复杂问题, 在自适应差分进化算法基础上增加惯性速度分项, 提出一种称为惯性速度差分进化(IVDE) 的改进算法, 以避免陷入局部最优解. 结合启发式任务列表, 对算法的状态编码提出了处理器列表(PL)、部分偏序任务列表(PTL) 和全部任务列表(CTL) 等3 种形式. 通过求解随机生成的任务调度标准图和真实求解任务问题, 进行了数值仿真验证, 其中PTL-IVDE 算法相比蚁群优化(ACO) 算法、混合遗传算法(TLPLC-GA), 能快速求得更好的任务调度方案.

  相似文献   

8.
为了解决布谷鸟搜索算法后期收敛速度慢、求解精度不高、易陷入局部最优等缺陷,提出了一种基于Powell局部搜索策略的全局优化布谷鸟搜索算法.算法将布谷鸟全局搜索能力与Powell方法的局部寻优性能有机地结合,并根据适应度值逐步构建精英种群候选解池在迭代后期牵引Powell搜索的局部优化,在保证求解速度、尽可能找到全局极值点的同时提高算法的求解精度.对52个典型测试函数实验结果表明,该算法相比于传统的布谷鸟搜索算法不仅寻优精度和寻优率有所提高,并且适应能力强、鲁棒性好,与最新提出的其他改进算法相比也具有一定的竞争优势.  相似文献   

9.
多处理器系统的实时调度算法研究   总被引:3,自引:1,他引:3  
调度算法是实时系统的关键技术,选取何种算法调度实时任务,这将直接影响着系统的实时响应能力。多处理器系统有局部调度和全局调度两类实时调度方法,以PFair公平调度为代表的全局调度是当前研究的热点。研究了典型局部调度EDF-FF算法和典型PFair公平调度PD^2算法,比较了多处理器系统采用PD^2算法相对于采用EDF-FF算法实现任务调度的优点,分析了由于任务频繁抢占和迁移,PD^2算法引起的时间消耗,估计并比较了PD2算法和EDF-FF算法的时间消耗,最后得出结论:在共享内存的多处理器系统中,公平调度算法是实时任务调度的比较理想的选择。  相似文献   

10.
在多处理器系统中,一个应用所要完成的任务可以分配给同一个处理器处理,也可以分配给多个处理器处 理,所以传统的测试方法难以满足多处理器任务调度算法的验证。在此,提出一个基于扩展I3iichi自动机的形式化模 型,并用该模型来描述多处理器任务调度算法TDS(Task Duplication based Scheduling);用线性时序逻辑描述出算法 I'DS期望的一些性质;最后在该模型上验证了这些性质。该方法有效地克服了传统测试的局限性,保证了多处理器 任务调度的可靠性。  相似文献   

11.
为了解决PFair算法进行交互任务调度时,由于忽略了不同阶段的周期性任务而导致多个线程之间任务的迁移问题以及空间和时间的浪费问题,提出了基于时间帧的处理器PFair调度改进算法。该算法基于周期性任务系统的特点,引入时间帧控制和改变本地周期性任务调度来限制任务迁移,从而实现对PFair算法的改进。为了评估算法的迁移开销和公平性,通过实验对普通PFair算法及本文所提出的改进算法ERfair进行对比实验,结果表明,改进算法ERfair能够通过时间帧内调度和分区控制大大降低任务在不同处理器间的迁移次数。基于时间帧的处理器PFair调度改进算法在保证公平性的同时,提高了系统的效率,应用于多核处理器上的任务调度是可行的、有效的。  相似文献   

12.
In cloud computing task scheduling is one of the important processes. The key problem of scheduling is how to allocate the entire task to a corresponding virtual machine while maximizing profit. The main objective of this paper is to execute the entire task with low cost, less resource use, and less energy consumption. To obtain the multi-objective function for scheduling, in this paper we propose a hybridization of cuckoo search and gravitational search algorithm (CGSA). The vital design of our approach is to exploit the merits of both cuckoo search (CS) and gravitational search algorithms (GSA) while avoiding their drawbacks. The performance of the algorithm is analyzed based on the different evaluation measures. The algorithms like GSA, CS, Particle swarm optimization (PSO), and genetic algorithm (GA) are used as a comparative analysis. The experimental results show that our proposed algorithm achieves the better result compare to the existing approaches.  相似文献   

13.
管晗  李文海  王怡苹 《测控技术》2017,36(12):67-70
针对ATS中并行测试任务调度复杂、难以优化的问题,提出了一种广义随机Petri网和人工免疫算法相结合的任务调度优化算法.首先对并行测试系统建立广义随机Petri网(GSPN)模型,然后将激发的变迁序列集作为并行测试任务调度路径;将免疫克隆选择算法(ICSA)应用到并行测试系统任务调度问题中,并提出一种自适应克隆选择算子,搜索最优任务调度路径,得到以测试时间最短为目标的最优任务调度方案.用某型雷达接收机并行测试系统对该算法进行仿真验证,结果表明,与改进的混合遗传算法(IHGA)相比,该算法能够便捷地得到任务调度最优序列,且测试效率更高.  相似文献   

14.
在多核系统中,任务调度是决定系统性能的关键因素之一。为优化任务调度,基于一些典型的任务调度算法(如PPA,徐成提出的算法等),提出了一种新的任务调度算法。该算法一方面合理确定前驱任务复制的先后顺序,而且进行两个阶段的复制,从而可以复制更多的前驱任务以减少调度长度和处理器上空余时间;另一方面,通过去除不影响任务系统调度长度的冗余簇,然后进行簇之间的合并,以减少处理机的数目和调度长度。实验表明,改进后的算法在任务调度的性能上优于典型算法。  相似文献   

15.
基于特征尺度均衡的Linux系统双阈值任务调度算法   总被引:1,自引:0,他引:1  
在嵌入式Linux操作系统的设计和应用中,操作系统经过移植后运行在不同的硬件平台上,它需要一种有效的任务调度算法来实现进程管理和内存管理,以提高系统运行效率.提出了一种基于特征尺度均衡的Linux系统双阈值任务调度算法,分析了嵌入式Linux的内核结构,构建了系统任务调度模型.该算法对以往各类型任务的到达频率、执行时间等信息流进行统计,并提取特征尺度,在Linux系统的全局任务调度中心将所有任务进行融合,输入系统总调度器,得到尺度优化目标函数,进行特征尺度均衡处理;把均衡后的特征尺度时间轴划分成各个相邻但不重合的任务匹配平滑窗口,通过双阈值权衡判决实现对Linux系统的任务调度.仿真结果表明,采用该算法进行Linux嵌入式任务调度,具有较高的执行效率,CPU利用率高,整体性能优于传统算法.  相似文献   

16.
王越峰  王溪波 《计算机科学》2017,44(Z6):567-570
在Hadoop集群环境下本地性调度算法是提高数据本地性的算法。本地性调度算法的调度策略的本质是提高数据本地性,减少网络传输开销,避免阻塞。但是由于Map任务的完成时间不同,Reduce任务存在的等待现象影响了作业的平均完成时间,使得作业的完成时间增加,进而引起系统的性能参数不佳。因此提出在保留原算法数据本地性要求的基础上集成可抢占式的调度方法。在Reduce任务等待时,挂起该任务并释放资源给其他Map任务,当Map任务完成到一定程度后,重新调度Reduce任务。基于上述调度策略设计了集成抢占式策略的本地性调度。为了对改进的算法进行验证,通过实验对本地性调度算法和集成抢占式本地性调度算法进行比较。实验结果表明,在相同数据上,集成抢占式本地性调度算法的平均完成时间有明显的降低。  相似文献   

17.
网格中资源之间存在着通信延迟,通过任务复制的冗余,可以减少任务之间的通信开销,缩短整个计算程序的计算时间。目前网格中的任务调度算法基本上是没有考虑任务复制的;而基于任务复制调度算法往往会产生过多的复制任务,增大系统开销,甚至有可能延迟计算时间。由于基于任务复制的任务调度是一个NP问题,因此本文提出了一种基于任务复制的网格资源调度算法,以减少调度长度为主要目标、减少任务复制量和资源占用量为次要目标。该算法在调度长度和任务复制数量以及占用资源数量方面都等于或优于其它算法。  相似文献   

18.
对uC/OS-II的任务调度算法进行改进和硬化,在uC/OS-II内核基于优先级的抢占式调度算法的基础上扩展同优先级任务的调度算法,突破了原系统对任务数量的限制,去除了原系统对每个任务必须有不同优先级的要求,采用硬件逻辑实现RTOS中的任务调度,使其实时性和确定性显著提高。整个设计采用VHDL硬件描述语言,利用ISE 8.2软件进行系统调试分析完成功能仿真验证。仿真结果表明,任务管理的硬件实现保持了系统调用的正确性,同时降低了处理器开销,减少了系统调用的执行时间。  相似文献   

19.
Efficient task scheduling is critical to achieving high performance on grid computing environment. The task scheduling on grid is studied as optimization problem in this paper. A heuristic task scheduling algorithm satisfying resources load balancing on grid environment is presented. The algorithm schedules tasks by employing mean load based on task predictive execution time as heuristic information to obtain an initial scheduling strategy. Then an optimal scheduling strategy is achieved by selecting two machines satisfying condition to change their loads via reassigning their tasks under the heuristic of their mean load. Methods of selecting machines and tasks are given in this paper to increase the throughput of the system and reduce the total waiting time. The efficiency of the algorithm is analyzed and the performance of the proposed algorithm is evaluated via extensive simulation experiments. Experimental results show that the heuristic algorithm performs significantly to ensure high load balancing and achieve an optimal scheduling strategy almost all the time. Furthermore, results show that our algorithm is high efficient in terms of time complexity.  相似文献   

20.
This paper proposes a scheduling algorithm to solve the problem of task scheduling in a cloud computing system with time‐varying communication conditions. This algorithm converts the scheduling problem with communication changes into a directed acyclic graph (DAG) scheduling problem for existing fuzzy communication task nodes, that is, the scheduling problem for a communication‐change DAG (CC‐DAG). The CC‐DAG contains both computation task nodes and communication task nodes. First, this paper proposes a weighted time‐series network bandwidth model to solve the indefinite processing time (cost) problem for a fuzzy communication task node. This model can accurately predict the processing time of a fuzzy communication task node. Second, to address the scheduling order problem for the computation task nodes, a dynamic pre‐scheduling search strategy (DPSS) is proposed. This strategy computes the essential paths for the pre‐scheduling of the computation task nodes based on the actual computation costs (times) of the computation task nodes and the predicted processing costs (times) of the fuzzy communication task nodes during the scheduling process. The computation task node with the longest essential path is scheduled first because its completion time directly influences the completion time of the task graph. Finally, we demonstrate the proposed algorithm via simulation experiments. The experimental results show that the proposed DPSS produced remarkable performance improvement rate on the total execution time that ranges between 11.5% and 21.2%. In view of the experimental results, the proposed algorithm provides better quality scheduling solution that is suitable for scientific application task execution in the cloud computing environment than HEFT, PEFT, and CEFT algorithms.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号