共查询到20条相似文献,搜索用时 93 毫秒
1.
基于快速消息传递的高性能PVM 总被引:2,自引:0,他引:2
并行虚拟机(parallelvirtualmachine,简称PVM)是并行工作站机群系统中流行的并行软件环境之一.分析了PVM的实现机制,指出PVM低效的原因,并给了基于高速精简通信层调整消息传递(fastmessagepassing,简称FMP)的高性能PVM(high-performancePVM,简称HPVM)的详细设计和实现. 相似文献
2.
MPI并行编程环境的研究 总被引:3,自引:0,他引:3
以RISC工作站或高档微机通过LAN连接的机群系统已经成为并行计算的主流技术,研究适应机群系统的并行编程环境自然重要起来。在众多的并行编程环境中,应用较为广泛的有消息传递接口(MPI)标准和并行虚拟机(PVM)环境。本文重点分析了MPI编程环境,并出给了MPI并行程序设计的基本方法。 相似文献
3.
C语言并行通信库是C语言的重要组成部分,本文介绍了C并行通信库的功能、作用与特点,,并给出了基于SIMD虚拟机实现的内部通信模式及其技术。 相似文献
4.
针对现有通信优化算法无法使MPI自动并行化编译器生成加速比理想的消息传递程序问题,提出了一种基于重排序变换和循环分布的通信优化算法。该算法根据给出的过程间副作用集合和基于mpi_wait/mpi_irecv移动的重排序变换规则,有序地采用重排序变换和循环分布,尽可能安全地扩大点到点非阻塞通信中通信与计算的重叠窗口,使MPI自动并行化编译器生成具有更多计算重叠通信的消息传递代码。实验结果表明,该算法能够隐藏更多的点到点非阻塞通信开销,并且明显提升消息传递程序的加速比。 相似文献
5.
基于网络的分布并行虚拟计算机的实现 总被引:2,自引:0,他引:2
构造了一个基于网络的分布并行虚拟计算机DPVM,它由虚拟机层、通信层和基本类层组成,包括服务器,工作机和客户机3种不同类型的机器,在简要介绍DPVM的总体结构之后,从服务器,任务通信,程序输出和消息传递并行语义的面向对象实现几方面对系统实现的关键技术进行讨论。 相似文献
6.
为了能够更高效的提高胶州湾水质预报系统的运行速度,在原有基于串行模式的预报系统中引入了消息传递接口MPI (message-passing interface)并行处理技术,并在该系统中分别采用组通信模式和非阻塞通信模式,把整个水质预报系统分解为多个子任务,在基于MPI消息传递模式的集群系统中分别进行运算,通过实验表明了两种通信模式在运算速度上的差异,在预报系统中非阻塞通信模式比组通信模式更加优化.因此,非阻塞通信模式对水质预报模式的改进具有很大的潜力. 相似文献
7.
大规模集群已经发展到多核的时代,多核架构对并行计算提出了新的要求。消息传递接口(MPI)是最常用的并行编程模型,而群集通信又是MPI中的重要组成部分。研究高效的群集通信算法对并行计算效率的提升有着重要的作用。KD60平台是采用首款国产多核芯片——龙芯3号搭建的国产万亿次多核集群。首先分析了KD60平台多核集群的体系特征以及多核架构下通信具有的层次性特征;然后分析原有群集通信算法实现原理及其不足;最后以广播为例,在原有算法基础上,采用一种基于片上多核(CMP)架构改进算法,改变原有算法通信模式,同时结合实验平台KD60体系特征,对算法做了体系相关优化。实验结果表明,改进算法能够很好地利用多核结构的特点,提高了群集通信广播算法的性能。 相似文献
8.
9.
10.
11.
MPI网络通信模型的数值应用 总被引:3,自引:0,他引:3
讨论并行支撑环境MPI的并行通信性能模型,测试了点对点和组通信下的若干性能指标,归纳出这些性能指标的统计模型,以作为工程问题并行计算可行性和可扩充性评价的基础。 相似文献
12.
MPI中的3种数据打包发送方式及其性能分析 总被引:1,自引:0,他引:1
首先介绍 了在MPI并行编程环境下,实现群体发送的3种打包发送方式,然后分别分析了这3种发送方式的性能,最后总结出了这3种打包发送方式各自适用的环境。 相似文献
13.
MPI程序的Petri网模型及其验证 总被引:1,自引:0,他引:1
利用PVM程序中抽取Petri网的方法实现了MPI程序的部分功能语句的Petri网抽象,并分别针对MPI-1和MPI-2在通信方式上的新特性给出对应的Petri网模型抽象方法,使利用Pertri网模型对MPI程序正确性进行理论验证成为可能. 相似文献
14.
《国际计算机数学杂志》2012,89(3):383-397
Message Passing Interface (MPI) allows a group of computers in a network to be specified as a cluster system. It provides the routines for task activation and communication. Writing programs for a cluster system is a difficult job. In this paper the Message-passing Interface is presented. Parallel programs using the WMPI, a version of MPI, to solve the pi(π) calculation the quick sort algorithm and the Torsion problem are presented. The programs are written and compiled in Microsoft Visual C+ +. 相似文献
15.
基于MPI的几种算法的并行编程通用算法 总被引:1,自引:0,他引:1
针对在MPI并行编程环境下编程比较困难的情况,该文首先介绍了二维及三维分块通信的通用并行算法。然后,开发了一个矩阵相乘的通用并行算法模块,并分析了其加速比与数组规模及结点数间的关系。最后,笔者通过一个具体实例———拉格朗日插值算法的并行为例,分析了对于多重for循环的并行的一种算法。在此基础上,建立了一个通用的基于MPI的一些算法的通用的并行编程函数库。 相似文献
16.
基于Linux集群的并行环境简单架设* 总被引:9,自引:0,他引:9
并行计算在各个领域的应用越来越广泛,而基于Linux集群的MPI并行环境是一个廉价、高效的并行计算系统。介绍了两种简单的基于Linux集群的MPI并行环境的构建方法,并且提供了软件的详细配置过程。 相似文献
17.
High Performance RDMA-Based MPI Implementation over InfiniBand 总被引:5,自引:0,他引:5
Jiuxing Liu Jiesheng Wu Dhabaleswar K. Panda 《International journal of parallel programming》2004,32(3):167-198
Although InfiniBand Architecture is relatively new in the high performance computing area, it offers many features which help us to improve the performance of communication subsystems. One of these features is Remote Direct Memory Access (RDMA) operations. In this paper, we propose a new design of MPI over InfiniBand which brings the benefit of RDMA to not only large messages, but also small and control messages. We also achieve better scalability by exploiting application communication pattern and combining send/receive operations with RDMA operations. Our RDMA-based MPI implementation achieves a latency of 6.8 sec for small messages and a peak bandwidth of 871 million bytes/sec. Performance evaluation shows that for small messages, our RDMA-based design can reduce the latency by 24%, increase the bandwidth by over 104%, and reduce the host overhead by up to 22% compared with the original design. For large data transfers, we improve performance by reducing the time for transferring control messages. We have also shown that our new design is beneficial to MPI collective communication and NAS Parallel Benchmarks. 相似文献
18.
多段图问题是一类特殊的单源最短路径问题。在串行动态规划算法的两种实现方法的基础上,根据图中顶点的编号,提出两种在集群环境下进行任务分割的并行化求解方法,并使用MPI进行实现。实验结果表明,所提出的算法具有较高的加速比和较低的通信复杂度、时间复杂度。算法不限于某种结构的集群,通用性强。 相似文献
19.
20.
《Journal of Parallel and Distributed Computing》2001,61(2):202-223
Users of parallel machines need to have a good grasp for how different communication patterns and styles affect the performance of message-passing applications. LogGP is a simple performance model that reflects the most important parameters required to estimate the communication performance of parallel computers. The message passing interface (MPI) standard provides new opportunities for developing high performance parallel and distributed applications. In this paper, we use LogGP as a conceptual framework for evaluating the performance of MPI communications on three platforms: Cray-Research T3D, Convex Exemplar 1600SP, and a network of workstations (NOW). We develop a simple set of communication benchmarks to extract the LogGP parameters. Our objective in this is to compare the performance of MPI communication on several platforms and to identify a performance model suitable for MPI performance characterization. In particular, two problems are addressed: how LogGP quantifies MPI performance and what extra features are required for modeling MPI, and how MPI performance compare on the three computing platforms: Cray Research T3D, Convex Exemplar 1600SP, and workstations clusters. 相似文献