首页 | 本学科首页   官方微博 | 高级检索  
检索     
共有20条相似文献,以下是第1-20项 搜索用时 218 毫秒

1.  大规模结构有限元分析程序在多核集群计算环境中的性能分析和优化  
   吕海  邸瑞华  龚华《计算机科学》,2012年第39卷第1期
   通过对基于MPI编程模型实现的开源有限元计算分析软件在多核集群计算平台中的程序性能的分析,找出程序瓶颈及其原因,实现了基于MPI编程模型的并行程序在多核计算环境中的性能优化。根据程序性能瓶颈的分析,提出了基于MPI/OpenMP混合并行编程模型的大规模线性/非线性方程组求解和多线程多进程同时进行消息通信的两种程序性能优化方案。不同计算规模的实验结果表明,在多核集群计算平台中,MPI/OpenMP混合编程模型实现的大规模非线性方程组求解器相对于单纯基于MPI编程模型实现的并行程序,其性能有2倍到3倍的提升;多线程多进程同时消息传递的优化方案虽然对程序能够起到性能优化作用,但是对解决程序消息通信瓶颈的问题不是最好的方法。两个方案总体性能分析结果表明,基于MPI/OpenMP混合编程模型实现的并行程序,在多核集群计算平台中能够更好地发挥硬件系统的计算能力。    

2.  基于WinSock和多线程技术的高性能并行FDTD  
   段鑫  陈星《信息与电子工程》,2011年第9卷第2期
   并行计算为时域有限差分(FDTD)方法仿真电大尺寸和复杂结构提供了强大的计算能力和内存资源。文章针对多核PC集群系统,提出了一种高性能并行FDTD算法,它采用Windows Socket(WinSock)实现高效的进程间通信,同时采用多线程技术充分利用多核处理器资源。在集群系统上的实际测试表明:以10个处理器(30个核)为例,该算法获得的加速比为16.0,并行效率为53.3%,优于单独使用消息传递接口(MPI)以及MPI结合OpenMP的传统FDTD并行算法,后两者在相同测试条件下仅分别获得13.7,12.2的加速比和45.8%,40.7%的并行效率。    

3.  MPI技术在胶州湾水质预报系统的应用研究  
   杜巍  牛沛  黄伟建《计算机工程与设计》,2013年第34卷第6期
   为了能够更高效的提高胶州湾水质预报系统的运行速度,在原有基于串行模式的预报系统中引入了消息传递接口MPI (message-passing interface)并行处理技术,并在该系统中分别采用组通信模式和非阻塞通信模式,把整个水质预报系统分解为多个子任务,在基于MPI消息传递模式的集群系统中分别进行运算,通过实验表明了两种通信模式在运算速度上的差异,在预报系统中非阻塞通信模式比组通信模式更加优化.因此,非阻塞通信模式对水质预报模式的改进具有很大的潜力.    

4.  一种Trace驱动的多核SMP集群并行性能模拟方法  
   翁玉芬  徐传福  车永刚  方建滨  王正华《计算机工程与科学》,2009年第31卷第Z1期
   基于新型多核SMP集群的层次化性能模型,本文在BigSim并行性能模拟器基础上实现了一个Trace驱动的多核SMP集群并行性能模拟器Sim-MSC。在一个InfiniBand多核SMP集群的宿主机平台上采用jacobi3D程序进行了测试,结果表明Sim-MSC能够模拟MPI消息传递并行应用程序在多核SMP集群上的执行特征,精确预测系统和应用性能。    

5.  多核集群系统下的混合并行遗传算法研究  
   王竹荣  巨涛  马凡《计算机科学》,2011年第38卷第7期
   为应对传统遗传算法在处理大规模组合优化问题面临的进化速度缓慢,难以达到实时要求的严峻挑战,提出了一种在多核PC集群系统上实现“粗粒度一主从式”混合并行遗传算法的模型:通过把“粗粒度一主从式”并行遗传算法映射到多核PC集群上,结合消息传递和共享存储两种并行编程模型,在节点间使用消息传递模型(MPI),对应的遗传算法为粗粒度并行遗传算法,在节点内使用共享存储模型(OpcnMP),对应的遗传算法为主从式并行遗传算法,用MPI和OpenMP混合编程的方式以进程和线程两级并行在多核集群上实现具体的混合并行遗传算法。理论分析和实验结果表明,提出的实现模型有较好的性能,可大大改进传统遗传算法的缺陷。为利用并行遗传算法在普通多核PC集群上处理大规模组合优化问题提出了一种有效、可行的解决方案。    

6.  一种优化MPI程序性能的改进方法  
   柯鹏  聂鑫《现代计算机》,2011年第18期
   在分布式存储系统上,MPI已被证实是理想的并行程序设计模型。MPI是基于消息传递的并行编程模型,进程间的通信是通过调用库函数来实现的,因此MPI并行程序中,通信部分代码的效率对该并行程序的性能有直接的影响。通过用集群通信函数替代点对点通信函数以及通过派生数据类型和建立新通信域这两种方式,两次改进DNS的MPI并行程序实现,并通过实验给出一个优化MPI并行程序的一般思路与方法。    

7.  面向多核集群的数据流程序层次流水线并行优化方法  
   于俊清  张维维  陈文斌  涂浩  何云峰《计算机学报》,2014年第37卷第10期
   数据流编程语言是一种面向领域的编程语言,它能够将计算与通信分离,暴露应用程序的并行性.多核集群中计算、存储和通信等底层资源的复杂性对数据流程序的性能提出了新的挑战.针对数据流程序在多核集群上执行存在资源利用低和扩展性差等问题,利用同步数据流图作为中间表示,文中提出并实现了面向多核集群的层次性流水线并行优化方法.方法包含任务划分与调度、层次流水线调度和数据局部性优化,经过编译优化后生成基于MPI的可并行执行的目标代码.其中任务划分与调度是利用程序中数据和任务并行性将任务映射到计算核上,实现负载均衡和低通信同步开销;层次性流水线调度是利用程序中的并行性构造低延迟流水线调度;数据局部性优化是针对数据访问存在的Cache伪共享做面向存储的优化.实验以X86架构多核处理器组成的集群为平台,选取媒体处理领域的典型应用算法作为测试程序,对层次流水线优化进行实验分析.实验结果表明了优化方法的有效性.    

8.  基于MPI和OpenMP混合编程的非负矩阵分解并行算法  
   唐兵  Laurent BOBELIN  贺海武《计算机科学》,2017年第44卷第3期
   非负矩阵分解(NMF)作为一种数据降维和特征提取的有效工具,已经在文本聚类、推荐系统等多个领域得到应用,但是其计算过程比较复杂。对此,提出一种基于MPI+OpenMP的混合层次化并行NMF方法,其充分利用基于MPI的消息传递模型和基于OpenMP的共享存储模型各自的优势,并基于多核节点集群进行测试。实验结果表明,所设计的并行NMF算法达到了较高的加速比,能有效处理高阶矩阵的非负分解,极大地提高了计算的效率。    

9.  NoC_MPSim:基于片上网络通信架构多核仿真平台  
   王进祥  付方发  孙俊《中国集成电路》,2011年第20卷第6期
   实现了一个用于探索基于片上网络通信架构多核系统设计空间的可配置仿真平台--NoC_MPSim.该平台包含处理器工具链、平台自动化配置脚本以及一个包含处理器、网络适配器以及多种路由器的RTL模型库,可根据用户输入的系统配置信息自动生成周期精确的多核仿真系统.针对片上网络通信架构的特征,定义了基于该通信架构的多核系统的高层次通信抽象模型,并借鉴并行机中的消息传递机制,提出了一种可有效隐藏网络乱序的并行编程模型及其通信原语,并完成其所需要的软\硬件建模.应用提出的编程模型,实现了MUSIC算法基于四核仿真系统的分布式并行计算,并经实验得到该并行MUSIC算法在该系统中加速比可达2.6.    

10.  MPI语言绑定:MPI-Delphi,MPI-Java与MPI-Ruby  被引次数:2
   魏兵海《计算机科学》,2004年第31卷第8期
   MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种API语言绑定作了综合性分析:MPI-Delphi,MPI-Java和MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术特征。MPI-Delphi基于DLL(动态语言连接)模式实现Delphi语言到MPI库的绑定。在MPI-Java绑定实现时,JVM(Java虚拟机)、JNI(Java本地接接口)、对象串行化范型和Java新I/O库Java.nio都是用作MPI性能优化的关键技术。MPI-Ruby能够提供给用户最易使用和最强大的接口。本文还对一些相关的绑定机制进行了介绍和分析。    

11.  MPI系统中共享内存通信技术研究  被引次数:1
   张洋  卢宇彤  蒋艳凰《现代电子技术》,2010年第33卷第19期
   MPI是消息传递并行程序设计接口,目前已经成为主流的并行编程模式。多核处理系统的出现,使得高性能计算更加关注节点内的进程通信性能。介绍多种节点内通信协议,以及两种MPI实现(OpenMPI和MPICH2)的结构,并对其中基于共享内存的消息传递功能采用的通信协议进行了研究,最后对两者的点点通信性能测试结果进行了比较和分析同时提出了优化策略。    

12.  基于重排序变换和循环分布的通信优化算法  
   陈达智  赵荣彩  韩林  丁锐  赵捷《计算机科学》,2012年第39卷第9期
   针对现有通信优化算法无法使MPI自动并行化编译器生成加速比理想的消息传递程序问题,提出了一种基于重排序变换和循环分布的通信优化算法。该算法根据给出的过程间副作用集合和基于mpi_wait/mpi_irecv移动的重排序变换规则,有序地采用重排序变换和循环分布,尽可能安全地扩大点到点非阻塞通信中通信与计算的重叠窗口,使MPI自动并行化编译器生成具有更多计算重叠通信的消息传递代码。实验结果表明,该算法能够隐藏更多的点到点非阻塞通信开销,并且明显提升消息传递程序的加速比。    

13.  多粒度并行计算集群研究与应用  
   胡晓力  田有先《电力学报》,2007年第22卷第4期
   提出了采用双核处理器的共享存储多处理机(SMP)作为计算节点时,多粒度并行计算集群的结构。研究了此类系统的并行计算粒度和优化方法,描述了该集群MPI+OpenMP的多粒度并行计算平台构建方法。利用此平台,实现了求解现行方程组的SOR迭代算法,通过数值测试,表明此类集群具有良好的计算性能。    

14.  分子动力学模拟的优化与并行研究  被引次数:3
   张勤勇  蒋洪川  刘翠华《计算机应用研究》,2005年第22卷第8期
   分析讨论了分子动力学模拟的算法特征和计算特点,对串行程序作了优化,并使之适合于作并行化。对模拟体系使用区域分解的方法,在计算节点间保留了部分重叠区域,采用基于消息传递的MPI设计平台,在可扩展机群上实现了并行化,获得了90%以上的并行效率。    

15.  基于MPI与OpenMP混合并行计算技术的研究  
   李苏平  刘羽  刘彦宇《软件导刊》,2010年第3期
   针对多核机群系统的硬件体系结构特点,提出了节点间MPI消息传递、节点内部OpenMP共享存储的混合并行编程技术。该编程模型结合了两者的优点,更为有效地利用了多核机群的硬件资源。建立了单层混合并行的Jacobi求对称矩阵特征值算法。实验结果表明,与纯MPI算法相比,混合并行算法能够取得更好的加速比。    

16.  基于马尔可夫随机场的纹理图像并行分割  
   谢建春  夏勇  赵荣椿《计算机工程与应用》,2008年第44卷第14期
   基于消息传递接口(Message Passing Interface,MPI)和消息传递并行编程模型,提出了一种针对计算机集群(Cluster)的纹理图像并行分割算法。该算法使用马尔可夫随机场作为纹理特征,通过将图像分块,把特征提取的计算量均匀的分布到并行系统中的各个节点上,从而极大地减少了计算时间。在遥感图像上的实验发现,该算法在4机并行的环境下可以取得与单机串行程序一样精确的分割,而耗时仅为串行程序的31.95%。令人满意的实验结果表明该并行算法不但可以有效的应用于纹理图像分割,而且也为使用计算机集群实现高时间复杂度的图像处理提供了有益的启示。    

17.  应用GPU集群加速计算蛋白质分子场  被引次数:3
   张繁  王章野  姚建  吴韬  彭群生《计算机辅助设计与图形学学报》,2010年第22卷第3期
   针对生物化学计算中采用量子化学理论计算蛋白质分子场所带来的巨大计算量的问题,搭建起一个GPU集群系统,用来加速计算基于量子化学的蛋白质分子场.该系统采用消息传递并行编程环境(MPI)连接集群各结点,以开放多线程OpenMP编程标准作为多核CPU编程环境,以CUDA语言作为GPU编程环境,提出并实现了集群系统结点中GPU和多核CPU协同计算的并行加速架构优化设计.在保持较高计算精度的前提下,结合MPI,OpenMP和CUDA混合编程模式,大大提高了系统的计算性能,并对不同体系和规模的蛋白质分子场模拟进行了计算分析.与相应的CPU集群、GPU单机和CPU单机计算方法对比,该GPU集群大幅度地提高了高分辨率复杂蛋白质分子场模拟的计算效率,比CPU集群的平均计算加速比提高了7.5倍.    

18.  混合编程集群研究及实现  
   胡晓力  田有先《微计算机信息》,2007年第23卷第33期
   介绍了采用双核处理器的共享存储多处理机(SMP)作为计算节点时,高性能并行计算集群的结构。研究了此类系统的并行计算粒度和优化方法,描述了该集群MPI+OpenMP的混合编程平台构建方法。利用此平台,实现了求解现行方程组的Mann迭代算法,通过数值测试,表明此类集群具有良好的计算性能。此系统已用于实际工作中,取得了良好的效果。    

19.  多核集群系统上的混合编程模型研究  
   张军  万剑怡《计算机与现代化》,2009年第5期
   对采用多核处理器作为SMP集群系统的计算节点的系统上的一种混合编程模型-MPI+OpenMP混合编程模型进行了深入的研究.建立了两个矩阵乘的混合并行算法,在多核集群平台上与纯MPI算法分别进行了实验,并进行了性能方面的比较.试验表明,混合编程具有更好的性能.    

20.  基于MPI的集群系统的研究  被引次数:1
   袁景艳  刘方爱  赵芳芳《信息技术与信息化》,2010年第2期
   MPI 是目前集群系统中最重要的并行编程工具, 它采用消息传递的方式实现并行程序间通信.本文研究如何实现一个基于MPI的集群计算系统,并利用一个并行程序实例设计了一个linux集群,对linux集群系统进行了性能评测    

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号