首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 343 毫秒
1.
介绍了MPI与网格计算的相关概念,描述了MPICH-G2的工作原理、特性以及MPICH-G2在网格环境下实现MPI并行计算的方法.综合阐述了MPICH-G2的通信性能及其在网格计算中的应用现状,并且通过对近几年使用MPlCH-G2和Globus网格服务结合搭建分布式异构环境的典型实例的具体分析,展示了MPICH-G2在网格计算中的重要作用,总结了MPICH-G2的现存问题与发展前景.  相似文献   

2.
基于代理的网格计算中间件   总被引:11,自引:0,他引:11  
WADE系统是基于代理技术实现的一个可屏蔽异构和分布性的动态自适应的校园计算网格,提出了基于代理技术在校园网络内实现并行计算的方法,详细论述了基于代理的网格计算中间件的体系结构和主要模块功能,阐述了利用代理实现异构编译、协同计算的过程,给出了代理的Java实现方法,利用软件代理实现网格计算中间件,可以解决异构计算平台下多种并行编程环境的协同计算问题,为用户提供统一的服务接口,这将大大增强系统的可用性。  相似文献   

3.
基于CELL宽带引擎架构的MPI研究与实现*   总被引:1,自引:0,他引:1  
研究了在CBEA上移植MPI消息传递编程模型和标准接口的可行性,并利用IBM CELL SDK 3.0实现了一组常用的MPI编程接口。实验结果表明,该组MPI接口可满足CBEA上应用开发的数据传输性能要求,并且其性能已接近现有DMA数据传输模式。该组MPI接口为CELL应用开发人员提供了一种通用编程接口解决方案。  相似文献   

4.
刘瑜  袁宏春  梁正 《计算机应用》2008,28(2):279-282
在多系统异构局域网中,由于不同操作环境的消息传递接口(MPI)程序缺乏互操作性,使得并行时域有限差分运算(FDTD)难以充分利用局域网内的计算资源。对此,提出利用应用层服务消息块(SMB)协议实现异构FDTD计算,并通过内存文件存取、内存映射数组以及引入冗余计算等方法来缓解与克服SMB通信延迟对并行性能的影响。数值模拟实例验证了新方法的可行性与正确性,所得加速比、并行效率等性能指标参数与常规同构MPI消息传递方法基本相当。  相似文献   

5.
计算网格(也称元计算系统)聚集地理上分散的资源进行大型的分布式高性能计算。PVM和MPI是广泛使用的并行编程环境,它们需要作为并行计算的基本构建而集成到元计算系统中去。论文针对元计算资源的动态性、分布性、性能多变性和结点异构性等特点,实现了一个自适应的、一体化的多编程环境。论文论述了该多编程环境的体系结构,并利用代理技术实现远程编译、发现资源、屏蔽异构和优化调度。  相似文献   

6.
机群系统是一种分布存储系统,它主要利用消息传递方式来实现各结点之间的通信。而MPI(Message Passing Interface)作为一种基于消息传递的并行程序设计环境,已广泛应用于多种并行系统,尤其是像机群系统那样的分布存储并行机。该文主要探讨了MPI中的消息传递调用接口,提出了几种有效的在结点间传递多维稀疏数组的方法,并通过实践加以比较。  相似文献   

7.
MPI是一种基于信息传递的并行编程技术,它定义了一组具有可移植性的编程接口MPI为消息传递和相关操作提供了功能强大而又丰富的库函数,其中有上百个函数调用接口可供开发者使用.传统的MPI数据通讯算法只能满足两点之间以及一点向组内广播的功能,本文旨在提出两种新的消息传递方式,即组内任意两点之间以及多点同时向组内广播的消息传递方式.  相似文献   

8.
本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个OpenMP线程,计算结点内针对能群进行多线程并行计算。数值测试结果表明,非结构网格上的粒子输运问题的混合并行计算能较好地匹配多核机群系统的硬件结构,具有良好的可扩展性,可以扩展到1024个CPU核。  相似文献   

9.
MPI提供了并行计算的一种消息传递接口。本文简述了MPI的关键技术,介绍了MPI的编程要点和思路,然后以经典问题LifeGame为例讨论了MPI程序的具体实现,最后给出了该程序的性能分析。  相似文献   

10.
MPI并行编程环境的研究   总被引:3,自引:0,他引:3  
以RISC工作站或高档微机通过LAN连接的机群系统已经成为并行计算的主流技术,研究适应机群系统的并行编程环境自然重要起来。在众多的并行编程环境中,应用较为广泛的有消息传递接口(MPI)标准和并行虚拟机(PVM)环境。本文重点分析了MPI编程环境,并出给了MPI并行程序设计的基本方法。  相似文献   

11.
PC机群上JIAJIA与MPI的比较   总被引:3,自引:2,他引:3       下载免费PDF全文
对JIAJIA和MPI (message passing interface)是进行了比较.JIAJIA和MPI分别代表共享存储和消息传递的编程模式.MPI显式进行数据传输,编程复杂;JIAJIA由底层维护数据一致性,并附加提供简单的消息传递函数,编程容易、灵活.JIAJIA分配共享内存时开销较大,初始化时间比MPI长.提出了一个关于并行加速比与进程数目之间关系的近似经验公式,推出JIAJIA和MPI性能差距随着进程数目的增多而增大的结论.测试结果表明,大部分应用程序的JIAJIA和MPI版本的并行性能差距不超过10%.对于通信量很小的应用程序,其JIAJIA和MPI的性能差距较小,而通信量本身较大的应用程序,其JIAJIA和MPI的性能差距主要取决于运行时产生的实际通信量.  相似文献   

12.
Hybrid parallel programming with the message passing interface (MPI) for internode communication in conjunction with a shared-memory programming model to manage intranode parallelism has become a dominant approach to scalable parallel programming. While this model provides a great deal of flexibility and performance potential, it saddles programmers with the complexity of utilizing two parallel programming systems in the same application. We introduce an MPI-integrated shared-memory programming model that is incorporated into MPI through a small extension to the one-sided communication interface. We discuss the integration of this interface with the MPI 3.0 one-sided semantics and describe solutions for providing portable and efficient data sharing, atomic operations, and memory consistency. We describe an implementation of the new interface in the MPICH2 and Open MPI implementations and demonstrate an average performance improvement of 40 % to the communication component of a five-point stencil solver.  相似文献   

13.
消息传递方式是广泛应用于一些并行机,特别是分布存储并行机的一种模式。PVM(ParallelVirtualMachine)和MPI(MessagePassingInterface)都是目前是广受欢迎的基于消息传递的并行程序库,其中PVM的消息传递接口,因其简单性,而没有给用户最大的灵活性以实现最佳的性能:为此,消息传递标准的讨论会工作组制定了消息传递接口MPI标准,为PVM实现最佳性能提供了可能。该文通过对PVM和MPI的比较,指出了从PVM应用移植到MPI应用时有利的方面和潜在的缺陷。如果一个应用程序能避开这些缺陷的影响,那么它就能够从移植中提高通信的性能,从而提高其分布式计算的性能。  相似文献   

14.
基于SMP集群的混合并行编程模型研究   总被引:9,自引:3,他引:6       下载免费PDF全文
提出一种适用于SMP集群的混合MPI+OpenMP并行编程模型。该模型贴近于SMP集群的体系结构且综合了消息传递和共享内存2种编程模型的优势,能获得较好的性能。讨论该混合模型的实现机制以及MPI消息传递模型的特点。实验结果表明,在一定条件下,该混合并行编程模型是SMP集群的最优选择。  相似文献   

15.
MPI for Python: Performance improvements and MPI-2 extensions   总被引:1,自引:0,他引:1  
MPI for Python provides bindings of the message passing interface (MPI) standard for the Python programming language and allows any Python program to exploit multiple processors.  相似文献   

16.
Many of the world’s leading supercomputer architectures are a hybrid of shared memory and network-distributed memory. Such an architecture lends itself to a hybrid MPI-thread programming model. We first present an implementation of inter-thread message passing based on the MPI and pthread libraries. In addition, we present an efficient implementation of termination detection for communication rounds. We use the term phased message passing to denote the communication interface based on this termination detection. This interface is then used to implement parallel operations for adaptive unstructured meshes, and the performance of resulting applications is compared to pure MPI operation. We also present new workflows enabled by the ability to vary the number of threads during runtime.  相似文献   

17.
陈江  赵永华  迟学斌 《计算机工程》2005,31(22):58-60,94
COUPL+是一种基于消息传递模型的并行库,它将并行程序巾需要处理的数据划分、消息传递函数的调用等都封装在其函数中。COUPL+可以简化在分布式存储结构并行机上编写基于网格的应用程序的任务。该文简要介绍了COUPL+的基本原理,以及它与MPI、OpenMP和HPF的特性对比;并且使用COUPL+实现了共轭梯度法和结构化网格计算两种并行计算中常用的任务,也对比了使用MPI和HPF的性能差异。  相似文献   

18.
应用GPU集群加速计算蛋白质分子场   总被引:3,自引:2,他引:1  
针对生物化学计算中采用量子化学理论计算蛋白质分子场所带来的巨大计算量的问题,搭建起一个GPU集群系统,用来加速计算基于量子化学的蛋白质分子场.该系统采用消息传递并行编程环境(MPI)连接集群各结点,以开放多线程OpenMP编程标准作为多核CPU编程环境,以CUDA语言作为GPU编程环境,提出并实现了集群系统结点中GPU和多核CPU协同计算的并行加速架构优化设计.在保持较高计算精度的前提下,结合MPI,OpenMP和CUDA混合编程模式,大大提高了系统的计算性能,并对不同体系和规模的蛋白质分子场模拟进行了计算分析.与相应的CPU集群、GPU单机和CPU单机计算方法对比,该GPU集群大幅度地提高了高分辨率复杂蛋白质分子场模拟的计算效率,比CPU集群的平均计算加速比提高了7.5倍.  相似文献   

19.
在分布式存储系统上,MPI已被证实是理想的并行程序设计模型。MPI是基于消息传递的并行编程模型,进程间的通信是通过调用库函数来实现的,因此MPI并行程序中,通信部分代码的效率对该并行程序的性能有直接的影响。通过用集群通信函数替代点对点通信函数以及通过派生数据类型和建立新通信域这两种方式,两次改进DNS的MPI并行程序实现,并通过实验给出一个优化MPI并行程序的一般思路与方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号