首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 22 毫秒
1.
机群系统是一种分布存储系统,它主要利用消息传递方式来实现各结点之间的通信。而MPI(Message Passing Interface)作为一种基于消息传递的并行程序设计环境,已广泛应用于多种并行系统,尤其是像机群系统那样的分布存储并行机。该文主要探讨了MPI中的消息传递调用接口,提出了几种有效的在结点间传递多维稀疏数组的方法,并通过实践加以比较。  相似文献   

2.
MPI(Message Passing Interface)是消息传递并行程序设计的标准之一,概述了MPI的概念和组成,着重介绍了支持并行程序设计的消息传递接口(MPI)以及在MPI环境下的并行程序设计方法,并给出一个MPI并行程序设计实例,说明了MPI的程序设计流程和普通串行程序设计之间的关联。  相似文献   

3.
基于CELL宽带引擎架构的MPI研究与实现*   总被引:1,自引:0,他引:1  
研究了在CBEA上移植MPI消息传递编程模型和标准接口的可行性,并利用IBM CELL SDK 3.0实现了一组常用的MPI编程接口。实验结果表明,该组MPI接口可满足CBEA上应用开发的数据传输性能要求,并且其性能已接近现有DMA数据传输模式。该组MPI接口为CELL应用开发人员提供了一种通用编程接口解决方案。  相似文献   

4.
为了能够更高效的提高胶州湾水质预报系统的运行速度,在原有基于串行模式的预报系统中引入了消息传递接口MPI (message-passing interface)并行处理技术,并在该系统中分别采用组通信模式和非阻塞通信模式,把整个水质预报系统分解为多个子任务,在基于MPI消息传递模式的集群系统中分别进行运算,通过实验表明了两种通信模式在运算速度上的差异,在预报系统中非阻塞通信模式比组通信模式更加优化.因此,非阻塞通信模式对水质预报模式的改进具有很大的潜力.  相似文献   

5.
MPI提供了并行计算的一种消息传递接口。本文简述了MPI的关键技术,介绍了MPI的编程要点和思路,然后以经典问题LifeGame为例讨论了MPI程序的具体实现,最后给出了该程序的性能分析。  相似文献   

6.
为了提升在线应用程序进行大数据量统计时的速度,设计独立的基于消息传递接口MPI(Message Passing Interface)的并行数据处理服务模型,与客户应用程序一同建立了柔性数据处理系统。阐述客户程序和并行服务系统的互联结构和工作方式,按照"先判断后处理"的工作思想,客户程序根据运算规模确定是否调用并行服务程序。并行服务程序由监听程序、临时工作程序和一组用于服务的并行程序组成,设计了基于可扩展标记语言的通信协议,实现了并行服务系统与客户程序之间的数据交换。实验比较了串行、MPI并行和Java多线程程序的耗时,结果表明MPI并行程序比其他两种方式具有明显的优势。  相似文献   

7.
刘志强  宋君强  卢风顺  徐芬 《软件学报》2011,22(10):2509-2522
为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了一种新的优化方法,即竞争式流水化方法(competitive and pipelined method,简称CP).CP方法通过一种节点内进程竞争机制在广播过程中尽早启动节点间通信,经该方法优化的广播算法利用共享内存在节点内通信,利用由竞争机制产生的引导进程执行原算法在节点间通信.并且,该方法使节点间通信和节点内通信以流水方式重叠执行,能够有效利用集群系统各节点的多核优势,减少了MPI广播受UPA的影响,提高了性能.为了验证CP方法的有效性,基于此方法优化了3种典型的MPI广播算法,分别适用于不同消息长度的广播.在真实系统中,通过微基准测试和两个实际的应用程序对CP广播进行了性能评价,结果表明,该方法能够有效地提高传统广播算法在UPA模式下的性能.在应用程序的负载测试实验结果中,CP广播的性能较流水化广播的性能提高约16%,较MVAPICH21.2中广播的性能提高18%~24%.  相似文献   

8.
IBA作为一种I/O间、主机间的下一代高速互联方式,在高性能计算领域越来越成为瞩目的焦点。消息传递接口MPI已经成为并行程序设计事实上的国际标准。该文详细介绍了在IBA之上构建一个高性能的MPI环境的方法,并对消息延迟和消息带宽进行了测试,对测试数据进行了分析。  相似文献   

9.
网络环境中MPI和PVM的分析与比较   总被引:2,自引:0,他引:2  
消息传递接口(MessagePassingInterface,MPI)和并行虚拟机(ParallelVirtualMachine,PVM)是两种广泛应用的网络分布式并行计算环境。论文首先介绍了消息传递接口和并行虚拟机两者各自的起源和特点,然后在此基础上从可移植性、点对点通信、集体通信、资源管理和容错能力等多方面分析和比较了这两者的功能特点。  相似文献   

10.
MPI(消息传递接口)作为一种著名的底层并行编程模型已被提出来作为网格编程的基础。描述了基于网格的消息传递接口的实现MPICH-G2,它基于MPICH和Gllobus工具包实现,在启动和管理中隐藏了异构性,具有良好的异构通讯性能。用一个例子说明如何在一个由Globus搭建的计算网格环境中通过MPICH-G2来创建和执行MPI计算。  相似文献   

11.
一种基于MPI和工作站群集的并行计算   总被引:1,自引:0,他引:1  
黄伟 《电脑学习》2005,(1):31-32
本文主要分析了消息传递的模型及其实现的一种方式MPI,构造了一个四节点基于MPI的工作站群集并实现了求π的并行计算,最后给出性能分析和负载平衡分析.  相似文献   

12.
多处理机系统分为共享存储器型和消息传递型。本文提出了一种新的消息传递型多处理机系统的总线接口的设计方法。区别于以往的总线接口的方法,引入了口的概念。优点是使得接收方也有权决定信息包接收与否,算法更灵活,可用广播传送方式,还可以动态地进行进程转移。  相似文献   

13.
支持向量机(support vector machine,SVM)是一种广泛应用于统计分类以及回归分析的监督学习方法.基于内点法(interior point method,IPM)的SVM训练具有空间占用小、送代趋近快等优点,但随着训练数据集规模的增大,仍面临处理速度与存储空间所带来的双重挑战.针对此问题,提出利用CPU-GPU异构系统进行大规模SVM训练的混合并行机制.首先利用计算统一设备架构(compute unified device architecture,CUDA)对基于内点法的SVM训练算法的计算密集部分并行化,并改进算法使其适合利用cuBLAS线性代数库加以实现,提高训练速度;然后利用消息传递接口(message passing interface,MPI)在集群系统上实现CUDA加速后算法的分布并行化,利用分布存储有效地增加所处理数据集规模并减少训练时间;进而基于Fermi架构支持的页锁定内存技术,打破了GPU设备存储容量不足对数据集规模的限制.结果表明,利用消息传递接口(MPI)和CUDA混合编程模型以及页锁定内存数据存储策略,能够在CPU-GPU异构系统上实现大规模数据集的高效并行SVM训练,提升其在大数据处理领域的计算性能和应用能力.  相似文献   

14.
多处理机系统分为共享存储器型和消息传递型。本文提出了一种新的消息传递型多处理机系统的总线接口的设计方法。区别于以往的总线接口的方法,引入了口的概念。优点是使得接收方也有权决定信息包接收与否,算法更灵活,可用广播传送方式,还可以动态地进行了进程转移。  相似文献   

15.
基于MPI的动态负载平衡算法的研究   总被引:1,自引:1,他引:0  
MPI是目前集群系统中最重要的并行编程工具,它采用消息传递的方式实现并行程序间通信.在MPI并行程序设计中实现负载平衡有着重要的意义,可以减少运行时间,提高MPI并行程序的性能.为了解决同构集群中动态负载均衡问题,提出了一种在MPI并行程序中实现的方法,可有效地根据节点的负载情况在节点间迁移任务.  相似文献   

16.
消息传递接口MPI广泛采用的fork-join编程模式会使程序在扩展时遭遇隐式代码规模膨胀的问题,根据迭代空间理论分析了问题产生的原因,针对MPI程序任务分派的各个阶段提出了相应解决方法,并将扩展性较好的一种实现为MPI自动执行框架.实验证明,这个框架仅会造成轻微的性能减损,却显著地减轻了隐式代码规模膨胀产生的影响.  相似文献   

17.
本文阐述了实时消息传递接口(MPI/RT)标准的相关内容。实时消息传递接口是一个通信层的中间件标准,此标准的主要目标是对高性能网络上的数据传输提供服务质量QoS的保证。  相似文献   

18.
为了找到一种更高效的并行计算方法以提高海洋物质输运模拟速度,将适用于分布式存储环境的消息传递接口(message passing interface,MPI)与适用于共享存储环境的开放式多处理(open multiple processing,OpenMP)两种海洋数值模拟领域常用的并行计算技术分别应用于模拟海洋物质输运过程,并在多核心(chip muti-processors)集群系统上进行了对比实验研究.实验结果表明,与串行模拟方法相比MPI和OpenMP分别可以使计算速度提高6倍和4.2倍,在海洋物质输运模拟并行计算中MPI的加速效果明显优于OpenMP.  相似文献   

19.
在分布式存储系统上,MPI已被证实是理想的并行程序设计模型。MPI是基于消息传递的并行编程模型,进程间的通信是通过调用库函数来实现的,因此MPI并行程序中,通信部分代码的效率对该并行程序的性能有直接的影响。通过用集群通信函数替代点对点通信函数以及通过派生数据类型和建立新通信域这两种方式,两次改进DNS的MPI并行程序实现,并通过实验给出一个优化MPI并行程序的一般思路与方法。  相似文献   

20.
束俊辉  张武  薛倩斐  谢江 《计算机应用》2014,34(11):3117-3120
为有效降低生物网络比对算法的时间复杂度,提出一种基于可扩展的蛋白质相互作用网络比对(SPINAL)算法的消息传递接口(MPI)并行化实现方法。该方法将MPI并行化思想运用在SPINAL算法中,在多核环境中采用并行排序代替算法原本的排序方式,并结合负载均衡策略合理分配任务。实验结果表明,与未使用并行排序以及负载均衡策略相比,该方法在处理大规模生物网络比对时能有效地缩短计算时间,提高运算效率,对于不同组比对数据都有较为稳定的优化保障,具有良好的可扩展性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号