首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
该文给出了对应于MPI标准的MPICH软件包在Windows操作系统中的配置和在MSVC++中的实现方法,并对MPI与C/C++绑定的基本编程进行了简要介绍。然后将其与一种电磁场数值算法——时域有限差分法相结合,以一维情况为例,讨论了网络并行时域有限差分法的实现方法。通过在由两台PC机构成的最简单的PC机群上的编程实现,验证了这种方法的可行性和高效性,实验结果表明通过MPICH软件包实现时域有限差分法的网络并行运算,可以使这种算法的加速比达到1.8。  相似文献   

2.
有限差分法是求解偏微分方程近似解的一种重要的数值方法。并行化计算可提高复杂计算问题的效率,二维场中拉普拉斯方程的差分格式非常适合并行化方法的计算。如何将串行部分并行化以提高大规模计算的效率,MPI(消息传递接口)是实现并行程序设计的标准之一。虚拟进程(MPI_PROC_NULL)是MPI中的假想进程,它的引用可简化MPI编程中的通信部分,引入虚拟进程编写代码,可实现有限差分方法的并行化计算。  相似文献   

3.
有限差分法是求解偏微分方程近似解的一种重要的数值方法。串行算法并不能高效的解决大规模复杂计算问题,并行化计算方法可提高复杂计算问题的效率,从而使并行机上计算有限差分问题成为可能。二维场中拉普拉斯方程的差分格式非常适合并行化方法的计算,将串行部分并行化以提高大规模计算的效率具有重要的现实意义。MPI(消息传递接口)是实现并行程序设计的标准之一。虚拟进程(MPI_PROC_NULL)的引用简化了MPI编程中的通信部分,串行算法可更改为并行化计算方法,最终实现有限差分方法的并行化计算。  相似文献   

4.
有限差分法是求解偏微分方程近似解的一种重要的数值方法。串行算法并不能高效的解决大规模复杂计算问题,并行化计算方法可提高复杂计算问题的效率.从而使并行机上计算有限差分问题成为可能。二维场中拉普拉斯方的差分程格式非常适合并行化方法的计算,将串行部分并行化以提高大规模计算的效率具有重要的现实意义。MPI(消息传递接口)是实现并行程序设计的标准之一。虚拟进程(MPI_PROC_NULL)的引用简化了MPI编程中的通信部分,串行算法可更改为并行化计算方法,最终实现有限差分方法的并行化计算。  相似文献   

5.
随着社会生产生活的发展,对计算机的依赖越来越大,要解决庞大计算量的实际问题就需要高性能的计算机以及高速的计算方法。在应用蒙特卡洛方法求解非线性方程组时,利用多线程技术,串行改并行,使用WinAPI、OpenMP、MPI三种并行模式得出三种最优的并行计算方法。根据数值试验分析了各种计算模式的优缺点,发现MPI并行模式计算速度最快,最终得以结论并行计算模式可以推广到各种数值计算问题。  相似文献   

6.
针对目前油藏数值模拟普遍采用的有限差分法计算精度低的问题,提出了兼顾计算精度、计算速度问题的有限元油藏数值模拟方法,即在建立了油藏数值模拟数学模型的基础上通过有限元数值分析方法建立有限元数值模型,但有限元在油藏数值模拟时存在单机计算困难、计算时间长的问题,为此提出了利用区域分解技术的油藏数值模拟并行计算方法,最后将该方法通过实例进行检验,取得了良好的加速比和并行效率。  相似文献   

7.
为了提高成形数值模拟计算速度,一个可行的方法是基于集群的并行计算。采用MPICH2作为并行运行环境,基于双核PC和服务器组成的可配置异构集群,运用C语言实现求解方案。选择有限差分法,以二维稳定状态热量分布问题为实例,采用区域分解法将整个计算数据区域分解为多个子域,应用MPI的对等模式进行并行程序设计。通过对通信模式及通信过程的优化,在4个进程的条件下最高加速比可达3.871。最后,针对集群并行计算中存在的负载不均衡现象,提出了动态负载均衡优化方案,其在原有基础上使性能提高了6.7%。  相似文献   

8.
使用伪谱方法的直接数值模拟准确、高效,但在高雷诺数情况下,计算量非常巨大,需要采用并行方法,但是快速傅里叶变换的并行算法在实际应用中有很大的困难。针对这一问题,提出了一种新的基于MPI的伪谱法直接数值模拟的并行计算方法。通过实例验证,该方法准确、易行、稳健,并且可以大幅提高计算速度,节省计算时间,这对直接模拟在科学研究和工程实际中的广泛应用都具有重要意义。  相似文献   

9.
从求解三维绕流问题的Boltzmann模型方程的数值模拟程序出发,通过研究区域分解并行计算策略,引入输入/输出、通信与CACHE等优化策略,对数值模拟程序进行MPI并行化移植与高性能计算调试。以高空稀薄过渡流区飞行器绕流状态为算例,进行了MPI大规模并行计算测试,证实了所发展的MPI并行化区域分解策略及程序优化途径的正确性。研究表明开展的并行化实现能明显地缩短模式计算时间,并取得较好的效果。  相似文献   

10.
通过讨论自然对数底e计算的并行结构,分别实现了Window多线程、OpenMP、MPI和OpenCL四种语言计算e值。其中前三种是基于CPU的并行模式,openCL基于GPU的并行模式。根据数值实验的结果,分析了各种并行计算模式的优缺点。  相似文献   

11.
第一性原理计算软件在密度泛函理论的发展中起着重要作用。相比平面波方法,局域轨道法更适合处理大规模多体问题。随着问题规模的不断增大和计算机计算能力的提升,软件的并行加速成为一个重要课题,MPI(message passing interface)结合GPU(graphic processing unit)实现的异构并行是一个新的解决方案。基于局域轨道法的第一性原理计算软件MESIA(massive electronic simulation based on systematically improvable atomic bases)经过MPI+OpenMP+CUDA三级并行,单GPU取得了约15倍的加速比,同时表现出了良好的可扩展性。测试结果同时验证了使用GPU计算可以保证计算精度。  相似文献   

12.
宏基因组基因聚类是筛选致病基因的新型方法,其依赖于海量的测序数据、有效的聚类算法以及高效的计算机来实现。相关系数矩阵的计算是进行聚类前必须完成的操作,占总计算量的比重较大。以某基因库为例,包含1300个样本、每样本百万基因的数据,单线程运行需要27年。充分发挥多核CPU的潜力,利用GPU加速卡强大的计算能力,将程序扩展到多节点集群上运行,是重要而迫切的工作。在仔细分析算法的基础上,首先针对单CPU节点和单GPU卡做了高效实现,获得了接近理想的加速比;然后利用缓存优化进一步提升性能;最后使用负载均衡方法在MPI线程间分发计算任务,实现了良好的扩展。相比未优化的单线程程序,16节点CPU获得了238.8倍的加速,6 块GPU卡获得了263.8倍的加速。  相似文献   

13.
基于MPI的不可压缩N-S方程并行计算方法的研究   总被引:1,自引:0,他引:1  
在目前的计算流体力学问题中,当求解N-S方程等大型科学计算问题时,存在着计算量大、耗时长的问题,对此提出了一种MPI并行算法,其中包括并行求解三对角矩阵与超松弛迭代。通过实例验证,该方法准确、可靠,并且可以大大缩短计算时间,对于大型科学计算问题具有很好的适用性。  相似文献   

14.
集群是充分利用计算资源的一个重要概念,PC集群是最易构建的分布式并行计算环境。MPI是应用最广的并行程序设计平台。本文通过实例阐述PC集群及PC集群上的MPI并行计算环境的搭建。  相似文献   

15.
常静 《现代计算机》2008,(3):106-108
以MPI为基础,以高斯消去法求解线性方程组的并行算法为实例,设计了分析并行算法性能的分析器,该分析器能够调度网络上多台计算机协同合作进行并行计算,并分析并行算法相对于串行算法的性能优势.  相似文献   

16.
Nowadays, high performance applications exploit multiple level architectures, due to the presence of hardware accelerators like GPUs inside each computing node. Data transfers occur at two different levels: inside the computing node between the CPU and the accelerators and between computing nodes. We consider the case where the intra-node parallelism is handled with HMPP compiler directives and message-passing programming with MPI is used to program the inter-node communications. This way of programming on such an heterogeneous architecture is costly and error-prone. In this paper, we specifically demonstrate the transformation of HMPP programs designed to exploit a single computing node equipped with a GPU into an heterogeneous HMPP + MPI exploiting multiple GPUs located on different computing nodes.  相似文献   

17.
MPI(Message Passing Interface)是大规模集群和网格平台中最通用的编程环境,而MPICH是其中应用得最广的一种可移植的实现.在集群式系统中,通信时间取决于许多因素,如节点数、网络带宽、拓扑结构还有软件算法等.到目前为止关于程序层面上的通信模式被研究得很多,以期达到提高通信效率的目的,但是MPICH系统内部所需要的通信时间特别是作业提交过程所花费的时间往往为人们所忽略.分析了当前MPICH的作业提交方法,并提出了同步二叉树法、异步二叉树法和二倍扩散法等一系列改进算法,达到了减少通信时间,优化通信性能的目的.  相似文献   

18.
ParaFe是已经研发成功的并行有限元数值平台,该平台采用面向对象设计语言C^++及MPI并行库来完成整个平台的编码及调试。在MS Window及Linux两种机群环境下来测试该平台,平台运行稳定,分析结果正确,具有理想的分析效率。本文主要介绍ParaFe的实现思想和实现技术。  相似文献   

19.
The message passing interface (MPI) is a standard used by many parallel scientific applications. It offers the advantage of a smoother migration path for porting applications from high performance computing systems to the Grid. In this paper Grid-enabled tools and libraries for developing MPI applications are presented. The first is MARMOT, a tool that checks the adherence of an application to the MPI standard. The second is PACX-MPI, an implementation of the MPI standard optimized for Grid environments. Besides the efficient development of the program, an optimal execution is of paramount importance for most scientific applications. We therefore discuss not only performance on the level of the MPI library, but also several application specific optimizations, e.g., for a sparse, parallel equation solver and an RNA folding code, like latency hiding, prefetching, caching and topology-aware algorithms.  相似文献   

20.
Wave-equation-based forward modelling using explicit finite-difference methods is a standard technique for calculating synthetic seismograms. The stability criterion restricts the size of the time step. In this paper a predictor–corrector method for solving the wave equation is described which allows the use of a larger time step. A stability analysis of the method is also carried out. Parallel implementation of the algorithm is described for a distributed computing environment which makes use of MPI and PVM message passing calls for communication between processors.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号