首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
针对对称逐步超松驰预处理共轭梯度(Symmetric Successive Over Relaxation Preconditioned Conjugate Gradient,SSOR-PCG)法并行化时每步迭代都要并行求解2个三角方程组的困难,采用多色排序技术提高并行度,基于MPI+OpenMP混合编程模型开发适合于分布共享内存计算机的并行程序,通过测试选择有效的MPI通信函数,并给出3种避免共享数据竞争的措施,供不同规模问题和不同内存容量计算机情况选用.  相似文献   

2.
消息传递界面PVM和MPI的现状与发展趋势   总被引:11,自引:0,他引:11  
PVM和MPI是目前国际上最有影响的两种消息传递并行计算环境,两者都能在MPP和工作站网络上运行。由于设计背景和侧重点不同,使得这两种界面既有共同点,又各具特色。文中就性能和发展趋势对两者进行叙述和比较,可供并行程序开发者选择并行计算环境时参考。  相似文献   

3.
邬延辉  陆鑫达 《计算机工程》2004,30(9):15-16,30
网格中的机群或者超级计算机通过广域网互相连接,在这个平台上进行并行编程应用的一个主要问题是它们的等级网络结构,广域网上的延迟和带宽通常是局域网中的好几倍。该文针对LogP模型进行了扩展,提出带参数的LogP模型,详细讨论比较了其中的各个参数以及如何通过实验对它们进行测量。在此模型基础上通过选取合适的通信结构,并且把消息分割成多个部分。在不同的广域连接上采用并行化发送,达到优化通信操作的目的。  相似文献   

4.
MPI及MPI的高效实现   总被引:1,自引:0,他引:1       下载免费PDF全文
本文描述了MPI的基本概念及两个MPI实现软件LAM和MPICH。MPICH是一个可移植的MPI实现,可容易地移植到其他MPP系统。我们在源码分析基础上 ,结合实践经验,给出了实现建议。  相似文献   

5.
介绍了并行计算的设计标准之一MPI,并深入研究了MPI的一个实现版本LAM,研究LAM的目的是为了在VLSI设计中运用LAM来加快矩阵的运算速度.LAM/MPI是对MPI标准的一个高质量的运用和实现,提供了在不同平台上的高性能运行.  相似文献   

6.
基于MPI的并行医学图像处理   总被引:1,自引:0,他引:1  
本文就并行计算技术在医学图像处理领域应用的优势和现状,论述了医学图像处理算法的并行实现方法,并在并行计算集群上实现了CT图像Sobel算子边缘检测及基于互信息的单模PET图像配准的MPI并行算法。针对这两种不同应用和不同的机群规模分析了并行计算的性能,说明了并行计算技术在该领域的适用范围。  相似文献   

7.
简要综述并行计算的思想,并对分布式内存结构和共享式内存结构两种结构的特点进行比较。叙述如何应用OpenMP和MPI进行混合编程,以及相应的混合编程模型。通过一个实例,针对多核CPU组成的SMP构架的集群,实现OpenMP和MPI混合编程的性能对比和结论分析。  相似文献   

8.
为减少空间降水插值的计算时间,以MPI并行接口为技术手段,采用数据划分建模方法,实现改进Kriging算法的并行算法.在Linux操作系统上搭建并行计算环境,试验数据表明,该并行算法能有效节省计算时间并具有良好的加速比、并行效率和扩展性.为Kriging插值算法的并行化实现和应用提供有意义的参考.  相似文献   

9.
将现有MPI并行程序移植到网格环境下有着非常现实的意义,本文介绍了网格计算的概念和MPI并行计算模型。阐述了将现有的MPI并行程序移植到Globus网格环境下的重要性,并针对这类移植的一种折中方案——MPICH—G2进行了研究、实验,总结了这种方案的特点和相关技术。  相似文献   

10.
主动消息与MPI   总被引:1,自引:0,他引:1  
本文详细分析了消息传递的开销问题,并对可降低开销的一种机制:主动消息进行了深入探计,在此基础上给出了将主动消息引入MP少基于主动消息实现MPI的原型。  相似文献   

11.
基于MPI的几种算法的并行编程通用算法   总被引:1,自引:0,他引:1  
针对在MPI并行编程环境下编程比较困难的情况,该文首先介绍了二维及三维分块通信的通用并行算法。然后,开发了一个矩阵相乘的通用并行算法模块,并分析了其加速比与数组规模及结点数间的关系。最后,笔者通过一个具体实例———拉格朗日插值算法的并行为例,分析了对于多重for循环的并行的一种算法。在此基础上,建立了一个通用的基于MPI的一些算法的通用的并行编程函数库。  相似文献   

12.
简要介绍了集群系统,指出其用于并行计算的工作原理,重点介绍MPI并行环境及其通信技术,并分析了MPI并行程序中的基本模式及其采用的通信技术。最后对构建MPI并行环境的集群系统进行了展望。  相似文献   

13.
High Performance RDMA-Based MPI Implementation over InfiniBand   总被引:5,自引:0,他引:5  
Although InfiniBand Architecture is relatively new in the high performance computing area, it offers many features which help us to improve the performance of communication subsystems. One of these features is Remote Direct Memory Access (RDMA) operations. In this paper, we propose a new design of MPI over InfiniBand which brings the benefit of RDMA to not only large messages, but also small and control messages. We also achieve better scalability by exploiting application communication pattern and combining send/receive operations with RDMA operations. Our RDMA-based MPI implementation achieves a latency of 6.8 sec for small messages and a peak bandwidth of 871 million bytes/sec. Performance evaluation shows that for small messages, our RDMA-based design can reduce the latency by 24%, increase the bandwidth by over 104%, and reduce the host overhead by up to 22% compared with the original design. For large data transfers, we improve performance by reducing the time for transferring control messages. We have also shown that our new design is beneficial to MPI collective communication and NAS Parallel Benchmarks.  相似文献   

14.
为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI进程都被映射成同一进程中的多个线程,从而节点内的通信可通过轻...  相似文献   

15.
MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来优化全互换通信操作过程,在大数据量的全互换通信中可以获得明显的性能提升。  相似文献   

16.
高性能计算中,通信上的巨大开销已成为其算力提升的主要瓶颈之一,通信性能的优化一直是一个重要挑战.针对通信优化任务,提出一种基于在网计算技术降低通信开销的方法.该方法在基于以太网的超算环境下,利用RoCEv2协议、可编程交换机以及OpenMPI,实现将归约计算卸载到可编程交换机,支持Node和Socket两种通信模式.在真实超算环境下开展了集合通信基准测试和OpenFOAM应用测试实验,结果表明,当服务器节点数达到一定规模时,该方法在Node和Socket两种模式下相较于传统的主机通信,均呈现出较好的性能提升,其中集合通信基准测试有10%–30%左右性能提升,在应用级测试中应用整体性能有1%–5%左右提升.  相似文献   

17.
The message passing interface (MPI) has become a de facto standard for programming models of highperformance computing, but its rich and flexible interface semantics makes the program easy to generate communication deadlock, which seriously affects the usability of the system. However, the existing detection tools for MPI communication deadlock are not scalable enough to adapt to the continuous expansion of system scale. In this context, we propose a framework for MPI runtime communication deadlock detection, namely MPI-RCDD, which contains three kinds of main mechanisms. Firstly, MPI-RCDD has a message logging protocol that is associated with deadlock detection to ensure that the communication messages required for deadlock analysis are not lost. Secondly, it uses the asynchronous processing thread provided by the MPI to implement the transfer of dependencies between processes, so that multiple processes can participate in deadlock detection simultaneously, thus alleviating the performance bottleneck problem of centralized analysis. In addition, it uses an AND⊕OR model based algorithm named AODA to perform deadlock analysis work. The AODA algorithm combines the advantages of both timeout-based and dependency-based deadlock analysis approaches, and allows the processes in the timeout state to search for a deadlock circle or knot in the process of dependency transfer. Further, the AODA algorithm cannot lead to false positives and can represent the source of the deadlock accurately. The experimental results on typical MPI communication deadlock benchmarks such as Umpire Test Suit demonstrate the capability of MPIRCDD. Additionally, the experiments on the NPB benchmarks obtain the satisfying performance cost, which show that the MPI-RCDD has strong scalability.  相似文献   

18.
在目前的流体计算中,当雷诺数较高时,计算量非常巨大,存在耗时长的问题,需要采用并行计算,对此提出一种基于MPI(Message Passing Interface)的并行计算方法。通过实例验证,该方法准确、易行、稳健,并且可以大幅提高计算速度,节省计算时间,对于大型科学计算问题具有很好的适用性。  相似文献   

19.
静态检测MPI程序同步通信死锁比较困难,通常需要建立程序模型。顺序模型是其他所有复杂模型的基础。通过一种映射方法将顺序模型转化为字符串集合,将死锁检测问题转化为等价的多队列字符串匹配问题,从而设计并实现了一种MPI同步通信顺序模型的静态死锁检测算法。该算法的性能优于通常的环检测方法,并能适应动态消息流。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号