共查询到20条相似文献,搜索用时 0 毫秒
1.
2.
3.
并行程序设计环境MPICH的应用机理分析 总被引:5,自引:0,他引:5
阐述了在PC集群中运用消息传递接口MPICH(Message Passing Interface and Chameleon)进行并行程序设计的基本方法,并以计算圆周率π值的并行算法程序为例,介绍了MPICH中基本例程的功能和调用方法,并行程序设计的关键技术是如何处理好各个进程之间的通信问题,MPICH采用紧迫协议和约定协议来协调各个进程之间的通信,同时也提供了一些阻塞处理函数和非阻塞处理函数,它们能够使进程充分利用系统资源,大大增加用户编程的灵活性。 相似文献
4.
目前对于随机工期的分布式资源受限多项目调度问题(SDRCMPSP)的研究较少且大多数为静态调度方案,无法针对环境的变化实时地对策略进行调整优化,及时响应频繁发生的动态因素。为此建立了最小化总拖期成本为目标的随机资源受限多项目动态调度DRL模型,设计了相应的智能体交互环境,采用强化学习中的DDDQN算法对模型进行求解。实验首先对算法的超参数进行灵敏度分析,其次将最优组合在活动工期可变和到达时间不确定两种不同条件下对模型进行训练及测试,结果表明深度强化学习算法能够得到优于任意单一规则的调度结果,有效减少随机资源受限多项目期望总拖期成本,多项目调度决策优化提供良好的依据。 相似文献
5.
《计算机应用与软件》2013,(6)
针对以工期最短为优化目标的资源约束项目调度问题进行研究,在建立数学模型的基础上,提出一种混合粒子群算法求解该问题。新算法重新定义了粒子的位置更新方式,使其适合于求解工期优化调度类离散问题,加快收敛速度,获得最佳调度方案。在工程项目调度实例中的应用仿真,验证了算法的有效性。 相似文献
6.
近年来,在基于Q学习算法的作业车间动态调度系统中,状态-行动和奖励值靠人为主观设定,导致学习效果不理想,与已知最优解相比,结果偏差较大.为此,基于作业车间调度问题的特质,对Q学习算法的要素进行重新设计,并用标准算例库进行仿真测试.将结果先与已知最优解和混合灰狼优化算法、离散布谷鸟算法和量子鲸鱼群算法在近似程度、最小值方面进行比较分析.实验结果表明,与国内求解作业车间调度问题的Q学习算法相比,该方法在最优解的近似程度上显著提升,与群智能算法相比,在大多数算例中,寻优能力方面有显著提升. 相似文献
7.
受损路网修复和物资配送是灾后应急响应初期的两个重要环节,已有研究大都将路网修复和物资配送割裂开来考虑,难以满足实际救援需求.为此,在构建抢修队与运输队联合调度的路网模型的基础上,引入马尔科夫决策过程来模拟抢修队的修复活动和运输队的救援活动,分别设计相应的状态、动作集和即时奖励函数,并提出一种基于双层交互Q学习的路网抢修和物资配送联合调度算法.对比实验表明,所提方法能有效提高路网抢修和物资配送的效率,可为应急响应初期的救援与处置提供及时可靠的物资保障. 相似文献
8.
基于混合策略自适应学习的并行粒子群优化算法 总被引:1,自引:0,他引:1
针对当前各种粒子群优化算法解决问题时存在的局限性,提出一种基于混合策略自适应学习的粒子群优化算法(HLPSO)。该算法从收敛速度、跳出局部极值、探索、开发几个不同角度融合了4种具有不同优势的变异策略,当面对不同形态的复杂问题时通过自适应学习机制选择出合适的策略来完成全局寻优。通过对7个标准测试函数的仿真实验并与其他算法相比较,所得结果表明了所提出的算法具有较快的收敛速度、较高的精度以及很强的跳出局部极值的能力。 相似文献
9.
针对强化学习在大状态空间或连续状态空间中存在的“维数灾”问题,提出一种基于智能调度的可扩展并行强化学习方法——IS-SRL,并从理论上进行分析,证明其收敛性.该方法采用分而治之策略对大状态空间进行分块,使得每个分块能够调入内存独立学习.在每个分块学习了一个周期之后交换到外存上,调入下一个分块继续学习.分块之间在换入换出的过程中交换信息,以使整个学习任务收敛到最优解.同时针对各分块之间的学习顺序会显著影响学习效率的问题,提出了一种新颖的智能调度算法,该算法利用强化学习值函数更新顺序的分布特点,基于多种调度策略加权优先级的思想,把学习集中在能产生最大效益的子问题空间,保障了IS-SRL方法的学习效率.在上述调度算法中融入并行调度框架,利用多Agent同时学习,得到了IS-SRL方法的并行版本——IS-SPRL方法.实验结果表明,IS-SPRL方法具有较快的收敛速度和较好的扩展性能. 相似文献
10.
近来实时动态任务分配机制得到越来越多的研究.考虑多任务流并存时的任务分配问题,提出基于Q学习的分布式多任务流调度算法,不仅能适应自身任务流的到达过程,还充分兼顾其他任务流的到达及分配的影响,从而使得整个系统长期期望回报最大.分布式特性使得算法适用于开放的,局部可见的多Agent系统;强化学习的采用使得任务分配决策自适应系统环境隐藏的不确定性.实验表明此算法具有较高的任务吞吐量和任务完成效率. 相似文献
11.
12.
针对项目活动工期为随机变量的资源约束项目调度问题,提出一种基于序的果蝇算法.为了实现随机环境下解的有效评价,提出一种预选机制,并采用基于序的最优计算量分配技术.为了使果蝇算法能够求解资源约束项目调度问题,采用交换操作执行果蝇算法的嗅觉搜索,并采用保优更新操作执行视觉搜索.为了均衡算法的局部搜索和全局搜索能力,在标准果蝇算法中引入了协作进化环节并采用两点交叉操作加以实现.在不同随机分布的情况下,采用标准测试集进行仿真测试.与现有算法的比较结果验证了所提预选机制和基于序的果蝇算法的有效性. 相似文献
13.
多技能项目调度存在组合爆炸的现象, 其问题复杂度远超传统的单技能项目调度, 启发式算法和元启发式算法在求解多技能项目调度问题时也各有缺陷. 为此, 根据项目调度的特点和强化学习的算法逻辑, 本文设计了基于强化学习的多技能项目调度算法. 首先, 将多技能项目调度过程建模为符合马尔科夫性质的序贯决策过程, 并依据决策过程设计了双智能体机制. 而后, 通过状态整合和行动分解, 降低了价值函数的学习难度. 最后, 为进一步提高算法性能, 针对资源的多技能特性, 设计了技能归并法, 显著降低了资源分配算法的时间复杂度. 与启发式算法的对比实验显示, 本文所设计的强化学习算法求解性能更高, 与元启发式算法的对比实验表明, 该算法稳定性更强, 且求解速度更快. 相似文献
14.
多任务粒子群优化算法(multi-task particle swarm ptimization, MTPSO)通过知识迁移学习,具有快速收敛能力,广泛应用于求解多任务多目标优化问题.然而, MTPSO难以根据种群进化状态自适应调整优化过程,容易陷入局部最优,收敛性能较差.针对此问题,利用强化学习的自我进化与预测能力,提出一种基于Q学习的多任务多目标粒子群优化算法(QM2PSO).首先,设计粒子群参数动态更新方法,利用Q学习方法在线更新粒子群算法的惯性权重和加速度参数,提高当前粒子收敛到Pareto前沿的能力;其次,提出基于柯西分布的突变搜索策略,通过全局和局部交替搜索多任务最优解,避免算法陷入局部最优;最后,设计基于正向迁移准则的知识迁移方法,采用Q学习方法更新知识迁移率,改善知识负迁移现象.与已有经典算法的对比实验结果表明所提出的QM2PSO算法具有更优越的收敛性. 相似文献
15.
16.
基于Q学习的受灾路网抢修队调度问题建模与求解 总被引:1,自引:0,他引:1
受损路网的修复是灾害应急响应中的一个重要环节, 主要研究如何规划道路抢修队的修复活动, 为灾后救援快速打通生命通道.本文首先构建了抢修队修复和路线规划的数学模型, 然后引入马尔科夫决策过程来模拟抢修队的修复活动, 并基于Q学习算法求解抢修队的最优调度策略.对比实验结果表明, 本文方法能够让抢修队从全局和长远角度实施受损路段的修复活动, 在一定程度上提高了运输效率和修复效率, 可以为政府实施应急救援和快速安全疏散灾民提供有益的参考. 相似文献
17.
针对知识化制造系统生产环境的不确定性, 构建一个基于多Agent 的知识化动态调度仿真系统. 为了保证设备Agent 能够根据当前的系统状态选择合适的中标作业, 提出一种基于聚类-动态搜索的改进??学习算法, 以指导不确定生产环境下动态调度策略的自适应选择, 并给出算法的复杂性分析. 所提出的动态调度策略采用顺序聚类以降低系统状态维数, 根据状态差异度和动态贪婪搜索策略进行学习. 通过仿真实验验证了所提出动态调度策略的适应性和有效性.
相似文献18.
19.
本文针对模具协作制造项目管理中对项目进度与成本难以及时有效控制的情况,提出了模具协作企业之间的弱矩阵式组织管理模式,利用项目网络图、关键路径法来对模具协作制造项目的进度与费用的实际执行情况进行监视和预警,并详细说明了该监视预警系统的构建原则与目标、功能、工作原理及工作流程。 相似文献
20.
基于随机查找的并行大规模纹理合成 总被引:1,自引:0,他引:1
传统的纹理合成方法使用高维向量树来加速目标纹理块的搜索效率,存在占用内存量大、执行效率低、无法在GPU上并行执行等缺点.为了实现图像块的快速近似邻域查找,提出一种并行优化纹理合成方法.该方法分为初始化和迭代优化2个阶段,初始化阶段从样本纹理中随机抽取样本纹理块填充目标图像,迭代阶段交替采用并行的随机查找算法和并行的纹理块传播算法迭代精化目标纹理.随机查找算法根据最相似纹理块出现在前一目标纹理块周围的概率与它到前一目标纹理块的距离成反比的特点,使随机采样纹理块的概率分布与最相似目标纹理块出现的概率相匹配,达到加速纹理合成的目标.采用CUDA实现了文中方法,实验结果表明,其执行效率比已有的纹理合成算法快50~100倍,可应用于交互式纹理合成和超大尺寸纹理合成. 相似文献