首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
MPI(消息传递接口)作为一种著名的底层并行编程模型已被提出来作为网格编程的基础。描述了基于网格的消息传递接口的实现MPICH-G2,它基于MPICH和Gllobus工具包实现,在启动和管理中隐藏了异构性,具有良好的异构通讯性能。用一个例子说明如何在一个由Globus搭建的计算网格环境中通过MPICH-G2来创建和执行MPI计算。  相似文献   

2.
面向对象的并行消息传递库的设计与实现分析   总被引:1,自引:0,他引:1  
马珂绛 《计算机应用》2005,25(3):628-630,636
MPI是并行程序设计中广泛使用的一个消息传递库,虽然标准MPI-2定义了C 绑定,但它并不严格符合面向对象的观点。在分析各类已有面向对象消息传递系统的基础上,用C 设计并实现了一个面向对象的、易于传递对象(包括用户自定义类型和STL容器)的、MPI一致的、类型安全的、基于MPI的并行消息传递库,并给出了相应的使用实例及性能分析。  相似文献   

3.
MPI是一种基于信息传递的并行编程技术,它定义了一组具有可移植性的编程接口MPI为消息传递和相关操作提供了功能强大而又丰富的库函数,其中有上百个函数调用接口可供开发者使用.传统的MPI数据通讯算法只能满足两点之间以及一点向组内广播的功能,本文旨在提出两种新的消息传递方式,即组内任意两点之间以及多点同时向组内广播的消息传递方式.  相似文献   

4.
基于MPI的动态负载平衡算法的研究   总被引:1,自引:1,他引:0  
MPI是目前集群系统中最重要的并行编程工具,它采用消息传递的方式实现并行程序间通信.在MPI并行程序设计中实现负载平衡有着重要的意义,可以减少运行时间,提高MPI并行程序的性能.为了解决同构集群中动态负载均衡问题,提出了一种在MPI并行程序中实现的方法,可有效地根据节点的负载情况在节点间迁移任务.  相似文献   

5.
在分布式存储系统上,MPI已被证实是理想的并行程序设计模型。MPI是基于消息传递的并行编程模型,进程间的通信是通过调用库函数来实现的,因此MPI并行程序中,通信部分代码的效率对该并行程序的性能有直接的影响。通过用集群通信函数替代点对点通信函数以及通过派生数据类型和建立新通信域这两种方式,两次改进DNS的MPI并行程序实现,并通过实验给出一个优化MPI并行程序的一般思路与方法。  相似文献   

6.
赵光嗣  李伟生 《计算机应用》2006,26(3):645-0646
针对我们在第22届全国数据库学术会议中提出的基于MPI的改进小波聚类算法,利用消息传递MPI机制在曙光TC1700上实现了并行聚类。对编程涉及到的主要问题,寻找和标记网格连通区域进行了重点说明,并对程序实现使用的技巧给出了解释。最后对两组数据分别在5节点和9节点情况下聚类结果进行了比较,实验结果表明该算法是高效并且可行的。  相似文献   

7.
机群系统是一种分布存储系统,它主要利用消息传递方式来实现各结点之间的通信。而MPI(Message Passing Interface)作为一种基于消息传递的并行程序设计环境,已广泛应用于多种并行系统,尤其是像机群系统那样的分布存储并行机。该文主要探讨了MPI中的消息传递调用接口,提出了几种有效的在结点间传递多维稀疏数组的方法,并通过实践加以比较。  相似文献   

8.
为了能够更高效的提高胶州湾水质预报系统的运行速度,在原有基于串行模式的预报系统中引入了消息传递接口MPI (message-passing interface)并行处理技术,并在该系统中分别采用组通信模式和非阻塞通信模式,把整个水质预报系统分解为多个子任务,在基于MPI消息传递模式的集群系统中分别进行运算,通过实验表明了两种通信模式在运算速度上的差异,在预报系统中非阻塞通信模式比组通信模式更加优化.因此,非阻塞通信模式对水质预报模式的改进具有很大的潜力.  相似文献   

9.
MPI并行程序设计的负载平衡实现方法   总被引:1,自引:0,他引:1  
MPI是目前集群系统中最重要的并行编程工具,它采用消息传递的方式实现并行程序间通信。在MPI并行程序设计中实现负载平衡有着重要的意义,可以减少运行时间,提高MPI并行程序的性能。负载平衡又可分为静态负载平衡和动态负载平衡,对于静态负载平衡,提出了一种分配任务的算法,可有效地按照节点的计算能力,在节点间分配任务;对于动态负载平衡,提出了一种在MPI并行程序中实现的方法,可有效地根据节点的负载情况,在节点间迁移任务。  相似文献   

10.
本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个OpenMP线程,计算结点内针对能群进行多线程并行计算。数值测试结果表明,非结构网格上的粒子输运问题的混合并行计算能较好地匹配多核机群系统的硬件结构,具有良好的可扩展性,可以扩展到1024个CPU核。  相似文献   

11.
MPI(Message Passing Interface)是消息传递并行程序设计的标准之一,概述了MPI的概念和组成,着重介绍了支持并行程序设计的消息传递接口(MPI)以及在MPI环境下的并行程序设计方法,并给出一个MPI并行程序设计实例,说明了MPI的程序设计流程和普通串行程序设计之间的关联。  相似文献   

12.
基于SMP集群的混合并行编程模型研究   总被引:6,自引:3,他引:6       下载免费PDF全文
提出一种适用于SMP集群的混合MPI+OpenMP并行编程模型。该模型贴近于SMP集群的体系结构且综合了消息传递和共享内存2种编程模型的优势,能获得较好的性能。讨论该混合模型的实现机制以及MPI消息传递模型的特点。实验结果表明,在一定条件下,该混合并行编程模型是SMP集群的最优选择。  相似文献   

13.
PC机群上JIAJIA与MPI的比较   总被引:3,自引:2,他引:3       下载免费PDF全文
对JIAJIA和MPI (message passing interface)是进行了比较.JIAJIA和MPI分别代表共享存储和消息传递的编程模式.MPI显式进行数据传输,编程复杂;JIAJIA由底层维护数据一致性,并附加提供简单的消息传递函数,编程容易、灵活.JIAJIA分配共享内存时开销较大,初始化时间比MPI长.提出了一个关于并行加速比与进程数目之间关系的近似经验公式,推出JIAJIA和MPI性能差距随着进程数目的增多而增大的结论.测试结果表明,大部分应用程序的JIAJIA和MPI版本的并行性能差距不超过10%.对于通信量很小的应用程序,其JIAJIA和MPI的性能差距较小,而通信量本身较大的应用程序,其JIAJIA和MPI的性能差距主要取决于运行时产生的实际通信量.  相似文献   

14.
基于MPI消息传递范型的并行计算是高性能计算热点中的一个主要方向。然而,大规模并行计算应用源码的编制具有相当程度的复杂性,而且静态特征的MPI标准并不提供任何的容错机制和动态任务平衡管理机制。对此,本文以声场并行计算过程为例,介绍了2002年新出现的具有高度易用性的MPI_Ruby语言,给出了一个应用层任务自平衡高度算法和基于组间通信体的容错算法。场场并行计算用MPI_Ruby编写较之用MPI编写能大幅节省源码行数。  相似文献   

15.
消息传递方式是广泛应用于一些并行机,特别是分布存储并行机的一种模式。PVM(ParallelVirtualMachine)和MPI(MessagePassingInterface)都是目前是广受欢迎的基于消息传递的并行程序库,其中PVM的消息传递接口,因其简单性,而没有给用户最大的灵活性以实现最佳的性能:为此,消息传递标准的讨论会工作组制定了消息传递接口MPI标准,为PVM实现最佳性能提供了可能。该文通过对PVM和MPI的比较,指出了从PVM应用移植到MPI应用时有利的方面和潜在的缺陷。如果一个应用程序能避开这些缺陷的影响,那么它就能够从移植中提高通信的性能,从而提高其分布式计算的性能。  相似文献   

16.
This paper introduces and discusses programming models for parallel processing and recent trends in the area of parallel programming. The paper discusses different parallel programming languages and tools that reflect various parallel computation models. These language differ in expressiveness, portability and performance. Software design and implementation largely varies by using different languages that make the programmer task easy or complex. We describe here the design goals and the main issues of parallel programming models and languages belonging to the following categories: shared-space based languages, message-based languages, parallel toolkits, data-parallel languages, parallel declarative languages, parallel object-oriented languages, and parallel composition-based languages. Tools and languages such as HPF, Linda, Java, OpenMP, PVM, MPI, Parallel C+ +, Sisal, Orca, Mentat, SkieCL, BSP and others are described in some detail. Their main features for design and implementation of high performance applications are discussed. Finally, we outline directions of research and development in the parallel programming area with a special attention to novel approaches based on high-level programming structures that make transparent to the users the architectural details of parallel computing machines.  相似文献   

17.
针对水声传播模型的计算量大,难以满足实时化、精细化水下声传播信息保障需求的难题,基于MPI+OpenMP混合并行编程方法,开展了WKBZ简正波模型混合并行计算方法研究,实现了水下声场2级混合并行计算。该方法通过节点间消息传递、节点内内存共享的方式,有效克服了MPI并行编程模型通信开销大和OpenMP并行编程环境可扩展性差的缺点,较好地解决了水下声传播快速计算的问题。测试结果表明,该方法能够较好地利用SMP集群节点间和节点内多级并行机制,充分发挥消息传递编程模型和共享内存编程模型各自的优势,大幅降低MPI进程间通信带来的时间开销,有效提升程序的可扩展性和并行效率。  相似文献   

18.
MPI for Python: Performance improvements and MPI-2 extensions   总被引:1,自引:0,他引:1  
MPI for Python provides bindings of the message passing interface (MPI) standard for the Python programming language and allows any Python program to exploit multiple processors.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号