共查询到16条相似文献,搜索用时 109 毫秒
1.
通过介绍MPI-2在.Net中的配置方案,针对求解线性方程组的高斯-赛德尔迭代算法并行程序设计论述了面向对象的并行程序编程方法和技巧。 相似文献
2.
一种基于MPI和工作站群集的并行计算 总被引:1,自引:0,他引:1
本文主要分析了消息传递的模型及其实现的一种方式MPI,构造了一个四节点基于MPI的工作站群集并实现了求π的并行计算,最后给出性能分析和负载平衡分析. 相似文献
3.
构建基于Windows和MPI的Beowulf并行计算系统 总被引:7,自引:0,他引:7
利用普通微机构建并行计算集群(常称为Beowulf系统),能够以低廉的价格获得强大的计算能力。文章介绍了利用16台微机构建一套Beowulf并行计算系统,节点微机上运行Windows2000操作系统,采用MPI(Message-Passing-Interface)的MPICH最新版本:MPICH.NT1.2.3作为并行计算的支撑环境,并以100Mbps高速交换式以太网作为互连网络。通过编制的并行计算程序对该Beowulf系统进行了并行效率的实际测试,测试结果表明该Beowulf系统能够达到非常高的并行加速比和并行效率。 相似文献
4.
基于MPI的并行医学图像处理 总被引:1,自引:0,他引:1
本文就并行计算技术在医学图像处理领域应用的优势和现状,论述了医学图像处理算法的并行实现方法,并在并行计算集群上实现了CT图像Sobel算子边缘检测及基于互信息的单模PET图像配准的MPI并行算法。针对这两种不同应用和不同的机群规模分析了并行计算的性能,说明了并行计算技术在该领域的适用范围。 相似文献
5.
基于MPI的并行程序设计 总被引:6,自引:0,他引:6
在介绍消息传递接口标准(MPI)和分析并行程序设计方法的基础上,提出了在并行程序设计中需要进行算法级分析和程序级测试,以此来对影响具体的并行程序执行效率的因素进行分析,并用实例验证了分析结果。最后对MPI的实现之——MPICH1.2.5版本的不足,提出了改进的方法。 相似文献
6.
7.
针对当前搭建集群并行系统复杂且耗时等问题,提出基于Docker搭建并行系统。介绍轻量级虚拟化技术Docker的核心概念和基本架构,并基于Docker技术在Linux平台上搭建集群并行开发环境。简要阐述并行计算的思想,叙述MPI和OpenMP并行计算的基本概念和特点,针对矩阵并行乘法的算法建立MPI和OpenMP的混合编程模型,并给出混合编程模型与MPI并行编程模型以及OpenMP并行编程模型的性能对比,分析出现差异的原因。基于该混合编程模型比较Docker与传统物理机两者搭建的并行系统的并行效率。 相似文献
8.
9.
基于局域网和MPI的PC集群计算环境 总被引:6,自引:1,他引:6
利用现成PC构建由几十乃至几百台PC组成的廉价、实用且性能优良的并行计算机。实验系统是在由40台PC组成的以太局域网内,建立一个基于TRUBO—LINUX和MPI的集群计算环境,并在此基础上进行并行计算实验和性能测试。实验表明,这种环境适合于那些进程之间通信不频繁的或者通信开销相对于计算开销小得多的中粒度或粗粒度的计算任务。 相似文献
10.
遥感传感器和计算机技术的发展,每天都会汇集大量新的地理空间数据。地球科学许多应用要求数据实时或接近实时地处理,发展高性能计算是进行海量数据处理的必然趋势。本文以 TM 影像制备黑河流域归一化指数产品为例,基于高性能集群,实现了植被指数快速提取的并行计算方法,并采用对等并行编程模式,通过 C 语言调用 MPI(Message Passing Interface,消息传递接口)和 OpenCV(Open Source Computer Vision Library,开源计算机视觉库)函数库,实现了 NDVI(Normalized Difference Vegetation Index,归一化植被指数)的并行计算,获得了黑河流域的 NDVI。性能测试表明,并行计算可以显著提高遥感图像处理的速度。文章最后讨论了从原始影像提取植被指数产品的流程。 相似文献
11.
以MPI为基础,以高斯消去法求解线性方程组的并行算法为实例,设计了分析并行算法性能的分析器,该分析器能够调度网络上多台计算机协同合作进行并行计算,并分析并行算法相对于串行算法的性能优势. 相似文献
12.
Glenn R. Luecke Marina Kraeva Jing Yuan Silvia Spanoyannis 《Concurrency and Computation》2004,16(1):79-107
The purpose of this paper is to compare the communication performance and scalability of MPI communication routines on a Windows Cluster, a Linux Cluster, a Cray T3E‐600, and an SGI Origin 2000. All tests in this paper were run using various numbers of processors and two message sizes. In spite of the fact that the Cray T3E‐600 is about 7 years old, it performed best of all machines for most of the tests. The Linux Cluster with the Myrinet interconnect and Myricom's MPI performed and scaled quite well and, in most cases, performed better than the Origin 2000, and in some cases better than the T3E. The Windows Cluster using the Giganet Full Interconnect and MPI/Pro's MPI performed and scaled poorly for small messages compared with all of the other machines. Copyright © 2004 John Wiley & Sons, Ltd. 相似文献
13.
14.
基于MPI并行环境下拉格朗日插值的求解 总被引:1,自引:0,他引:1
在拉格朗日插值计算中存在计算时间长的内存消耗大的难题,并行计算可以减少单机处理量,是解决该难题的有效途径.本文针对网络并行系统特点,提出了有效的优化步骤,采用MPI并行函数库实现高效率拉格朗日插值并行计算.计算结果证明了该方案的正确性,并且得到了较高的并行效率,为后续一些复杂问题的求解提供了可行的解决方案. 相似文献
15.
为减少空间降水插值的计算时间,以MPI并行接口为技术手段,采用数据划分建模方法,实现改进Kriging算法的并行算法.在Linux操作系统上搭建并行计算环境,试验数据表明,该并行算法能有效节省计算时间并具有良好的加速比、并行效率和扩展性.为Kriging插值算法的并行化实现和应用提供有意义的参考. 相似文献