共查询到20条相似文献,搜索用时 20 毫秒
1.
Linux环境下的并行计算 总被引:4,自引:0,他引:4
进行大规模科学计算的常用手段是并行计算。从性能和费用等方面考虑,在支持网络并行计算的操作系统中优先选择的系统应是Linux。本文介绍了LINUX环境下的一些并行计算软件,讨论了分布式并行计算的一些概念和需要解决的一些问题。 相似文献
2.
本文首先概述了 Java技术的引入对分布式并行计算技术的影响 ,然后就工作机群的组织、问题分布、系统内通信、容错机制等四个关键问题进行讨论 ,分析常见的问题和各种解决方案 ,最后对基于 Java的分布式并行计算的进一步发展前景作简要描述 相似文献
3.
异构型计算能有效地利用多种不同的高性能计算机,以满足大型计算问题的不同计算需求。本文着重讨论了支持异构型计算的并行程序设计环境所需具备的功能,并以目前最流行的PVM和Express系统为例进行说明。 相似文献
4.
数据并行计算:概念,模型与系统 总被引:1,自引:2,他引:1
一、引言并行计算,或者并行处理,指的是这样一种努力和相关的研究:利用多个具有计算能力的部件来共同完成一个计算工作,以获得比用一个部件来完成要快的效果。这显然是一个很自然的想法。历史地看,几乎是自从有了计算机,就有了并行处理的想法和实践。在80年代后期到90年代初期,以寻求对人类面临的若干重 相似文献
5.
分布式计算、并行计算、内存计算是目前提高计算性能的关键技术和热点研究领域。在大数据环境下,针对数据型统计分析系统性能劣化明显、不能满足用户使用需求的问题,提出了一种轻量级高性能对象化并行计算架构,研制了该架构的对象服务组件、对象管理服务组件和客户端代理组件,并将该架构和组件在国家电网资产质量监督管理系统中进行了验证应用,其效果表明该框架能大幅提升大数据处理效率。 相似文献
6.
Christopher A. Swann 《Computational Economics》2002,19(2):145-178
The computational difficulty of econometric problems has increased dramatically in recent years as econometricians examine more complicated models and utilize more sophisticated estimation techniques. Many problems in econometrics are `embarrassingly parallel' and can take advantage of parallel computing to reduce the wall clock time it takes to solve a problem. In this paper I demonstrate a method that can be used to solve a maximum likelihood problem using the MPI message passing library. The econometric problem is a simple multinomial logit model that does not require parallel computing but illustrates many of the problems one would confront when estimating more complicated models. 相似文献
7.
8.
在基于有向图的并行计算中,给定图剖分后,如何设计结点调度方案使得并行执行时间最短,是典型的NP完全问题.针对此问题,文中提出一种新的基于顺逆交替迭代技术的启发式调度算法,并给出该算法的并行实现.严格的理论推导证明,新算法在一定的假设条件下,从任何初始调度方案出发,均可以单调收敛.在数百个处理器上的并行数值实验表明,与常用的调度算法相比,新算法可在付出很少的开销代价下显著提高整体并行效率. 相似文献
9.
10.
多范例并行是大规模并行应用系统的本质特征,实现p-HPF对多范例并行计算的编译支持不仅可以弥补数据并行示例本身的一些缺点,而且可以提高并行应用系统的效率,文中在论述cluster环境下Global,Local,Serial三种典型并行计算模型的基础上,给出了实现p-HPF对三种模型的典型代表F77+MPI,ScaLAPACK调用的并行编译技术,包括参数重分布技术、存储转换技术、全局与局部信息交换技术以及局部数组参数的上下界处理技术等,给出了调用实例并分析了实现技术的正确性和有效性。 相似文献
11.
12.
Lei Pan Ming Kin Lai Koji Noguchi Javid J. Huseynov Lubomir F. Bic Michael B. Dillencourt 《International journal of parallel programming》2004,32(1):1-37
Message Passing (MP) and Distributed Shared Memory (DSM) are the two most common approaches to distributed parallel computing. MP is difficult to use, whereas DSM is not scalable. Performance scalability and ease of programming can be achieved at the same time by using navigational programming (NavP). This approach combines the advantages of MP and DSM, and it balances convenience and flexibility. Similar to MP, NavP suggests to its programmers the principle of pivot-computes and hence is efficient and scalable. Like DSM, NavP supports incremental parallelization and shared variable programming and is therefore easy to use. The implementation and performance analysis of real-world algorithms, namely parallel Jacobi iteration and parallel Cholesky factorization, presented in this paper supports the claim that the NavP approach is better suited for general-purpose parallel distributed programming than either MP or DSM. 相似文献
13.
Philip C. Treleaven 《Parallel Computing》1988,8(1-3):59-70
An increasing number of parallel computer products are appearing in the market place. Their design motivations and market areas cover a broad spectrum: (i) Transaction Processing Systems, such as Parallel UNIX systems (e.g. SEQUENT Balance), for data processing applications; (ii) Numeric Supercomputers, such as Hypercube systems (e.g. INTEL iPSC), for scientific and engineering applications; (iii) VLSI Architectures, such as parallel microcomputers (e.g. INMOS Transputer), for exploiting very large scales of integration; (iv) High-Level Language Computers, such as Logic machines (e.g. FUJITSU Kabu-Wake), for symbolic computation; and (v) Neurocomputers, such as Connectionist computers (e.g. THINKING MACHINES Connection Machine), for general-purpose pattern matching applications.
This survey paper gives an overview of these novel parallel computers and discusses the likely commercial impact of parallel computers. 相似文献
14.
基于linux集群的并行计算 总被引:12,自引:0,他引:12
集群计算机技术是高性能并行计算机系统中的一个研究热点。对于有密集运算需求的企业和研究机构来说,集群系统是他们的最佳选择。本文简要介绍了linux集群技术和并行程序设计的概念,并给出了一个并行程序实例,对linux集群系统进行了性能评测。 相似文献
15.
网格计算环境下分布并行计算的一种实现方法 总被引:2,自引:1,他引:2
网格计算为人们处理很多复杂问题提供了新方法。文章利用GlobusToolkit来构建网格计算环境,并把它扩展为分布并行计算的支撑环境,为实现分布并行计算提供了新方法。讨论了任务分布、系统通信和容错机制等关键问题。最后给出了基于网格计算环境下的一个分布并行计算实例,取得了令人满意的实验结果。 相似文献
16.
研究基于CMP(Chip Multiple Processors,片上多处理器)系统的并行编程模式旨在建立开发CMP系统上并行程序的整套方法。首先简要介绍了多核并行计算,然后通过对CMP系统上并行计算问题的综合归纳,提出了基于CMP系统的并行编程模式的概念模型,这个概念模型包含并行体系结构、并行算法设计模型、开发环境、并行程序实现模型四个核心要素;其次,对各并行编程模式各要素及其子概念的内涵进行了阐释;最后以实例对并行编程模式进行说明,初步验证了这套编程模式的合理性。 相似文献
17.
18.
随着Internet迅速发展,利用网上资源构筑分布式并行计算环境进行中、大粒度任务的分布式并行计算已呈现出重要研究价值。另外,Agent理论的日益成熟及多Agent系统MAS(Multi-Agent System)的出现,为开放式分布系统的开发和应用提供了新的模式。结合移动Agent在并行计算中的任务特性,对网络并行计算进行了抽象的分析和描述,然后给出了一个基于移动Agent计算的任务流模型实例。 相似文献
19.
分子动力学模拟是对微观分子原子体系在时间与空间上的运动模拟,是从微观本质上认识体系宏观性质的有力方法.针对如何提升分子动力学并行模拟性能的问题,本文以著名软件GROMACS为例,分析其在分子动力学模拟并行计算方面的实现策略,结合分子动力学模拟关键原理与测试实例,提出MPI+OpenMP并行环境下计算性能的优化策略,为并行计算环境下实现分子动力学模拟的最优化计算性能提供理论和实践参考.对GPU异构并行环境下如何进行MPI、OpenMP、GPU搭配选择以达到性能最优,本文亦给出了一定的理论和实例参考. 相似文献
20.
并行计算是CFD技术发展的必然趋势。本文从高超声速流动的特点出发,研究多分区结构网格下CFD并行计算方法,重点解决了区域之间流场信息的数据交换问题和边界处理问题,以保证流场的连续性。本文采用有限体积法求解高超声速流场,空间离散格式为Osher-Chakravarthy TVD格式,利用MPI消息传递模式完成数据交换,在自主搭建的PC集群上进行算例考核,验证了算法的可行性和正确性。 相似文献