首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
主要介绍了百万网格点规模的精细油藏数值模拟在国产高性能并行计算机与微机机群系统上的应用情况。针对若干组来自于国内油田的百万网格点实际数据,给出了在多种国产并行机环境下的运行结果,并作了分析与评价,在此基础上,讨论并行油藏数值模拟软件高效过程中遇到的关键技术,探讨大型软件并行化过程中经常遇到的瓶颈问题及改进方案。  相似文献   

2.
刘凯  寇正 《微型机与应用》2003,22(12):12-14
OpenMP的功能、执行方式和主要指令,用OpenMP对一个描述粒子运动的模式进行了并行优化。  相似文献   

3.
GPU在海洋环流模式POP中的应用   总被引:1,自引:0,他引:1  
在CUDA(Compute Unified Device Architecture)架构下将GPU(Graphic Processing Unit)计算首次应用到海洋环流模式POP(Parallel Ocean Program)中.测试结果表明:无论高分辨率还是低分辨率,GPU都能够提高海洋环流数值模式POP的计算速度,GPU加速比最低都在1.5倍以上,最高可以超过2.2倍;并且随着模式使用线程数目的增多,GPU的加速比在降低,但是GPU利用效率在增长.  相似文献   

4.
边缘海静力数值模式是国内针对边缘海特点自主开发的数值预报模式,但该模式因物理求解方程较多且采用不宜并行化的SOR求解算法而程序计算时间过长。针对上述问题,提出基于三维网格和海洋模式特点的SOR并行求解算法,该算法在保留三维网格数据间依赖关系的同时,有效解决了SOR迭代算法难以并行化的问题。同时,引入通信避免算法,采用MPI非阻塞通信方式,细分计算和通信过程,利用计算有效隐藏通信开销,提高了并行程序效率。实验结果表明,并行后的边缘海静力数值模式程序的性能相对串行程序提升了60.71倍,3天(25920计算时间步)预报结果的均方根误差低于0.001,满足海洋数值预报的时效性和精度要求。  相似文献   

5.
本文介绍在Transputer网络上并行计算五层数值预报模式的一个方案:用一个Transputer芯片完成一层的计算量,最大限度地缩小层间数据交换,试验结果的令人满意的.  相似文献   

6.
使用基于MPI并行编程方法对IFortran77串行计算程序进行并行处理,主要工作在循环级的可并行性研究和并行实现。文中给出并行代码在国家高性能计算中心(合肥)的曙光-1000机上运行的并行加速比以及相应的系统并行效率。  相似文献   

7.
本文简要介绍了高性能计算机,并描述了石油勘探基本原理和地震资料处理中叠前偏移等应用对高性能计算机在运算量和存储方面的需求,针对地震资料处理中的应用,讨论了高性能计算机几个关键技术的现状并对未来进行展望。实际情况表明,地震资料处理依赖于高性能计算机等信息技术,同时高性能计算机等信息技术也限制着许多地震资料处理新方法新技术的普遍应用。  相似文献   

8.
虚拟化技术在高性能计算机系统中的应用研究   总被引:1,自引:0,他引:1  
随着高性能计算机系统规模的不断扩大,体系结构的日益复杂,其管理和使用也变得越来越困难。将虚拟化技术应用于构建高性能计算机系统有助于帮助开发人员高效管理和使用高性能计算机系统,使其发挥最大效能。本文详细分析了虚拟化技术在高性能计算机系统中已有的几个成功应用,总结了虚拟化技术应用于高性能计算领域时所面临的主要问题,最后对虚拟化技术在高性能计算机系统中的应用前景进行了展望。  相似文献   

9.
10.
《互联网周刊》2009,(23):53-53
千万亿次高性能计算机代表一个国家计算技术的尖端科研能力。备受关注的完全自主知识产权的曙光6000成为业界谈论的主要话题。曙光6000何时发布?和采用GPU加速的天河一号有何不同?采用自主创新科技研发的国产千万亿计算机能否超越天河一号?这些疑问顿时成为用户和网民们关注的焦点。  相似文献   

11.
在气候变化数值模拟工作中,气候数值模式运行效率主要受到计算效率和I/O效率的共同影响。目前,模式计算部分已经基本实现并行,计算效率显著提升。随着气候数值模式时空分辨率的提高,对I/O效率的需求也不断增加,数据并行I/O技术已经成为提高模式整体运行效率的有效方法之一。文中深入分析了BCC_AGCM模式串行I/O算法及NetCDF数据结构特点,采用基于MPI-IO的高层I/O库对模式I/O算法进行并行优化,优化后可支持多类气象要素并行输出,输出效率明显提升。为我国应对气候变化数值模式的运行效率优化工作,进行了有益的技术探索和积累。  相似文献   

12.
Novel artificial intelligence(AI)technology has expedited various scientific research,e.g.,cosmology,physics,and bioinformatics,inevitably becoming a significant category of workload on high-performance computing(HPC)sys-tems.Existing AI benchmarks tend to customize well-recognized AI applications,so as to evaluate the AI performance of HPC systems under the predefined problem size,in terms of datasets and AI models.However,driven by novel AI technol-ogy,most of AI applications are evolving fast on models and datasets to achieve higher accuracy and be applicable to more scenarios.Due to the lack of scalability on the problem size,static AI benchmarks might be under competent to help un-derstand the performance trend of evolving AI applications on HPC systems,in particular,the scientific AI applications on large-scale systems.In this paper,we propose a scalable evaluation methodology(SAIH)for analyzing the AI performance trend of HPC systems with scaling the problem sizes of customized AI applications.To enable scalability,SAIH builds a set of novel mechanisms for augmenting problem sizes.As the data and model constantly scale,we can investigate the trend and range of AI performance on HPC systems,and further diagnose system bottlenecks.To verify our methodology,we augment a cosmological AI application to evaluate a real HPC system equipped with GPUs as a case study of SAIH.With data and model augment,SAIH can progressively evaluate the AI performance trend of HPC systems,e.g.,increas-ing from 5.2%to 59.6%of the peak theoretical hardware performance.The evaluation results are analyzed and summa-rized into insight findings on performance issues.For instance,we find that the AI application constantly consumes the I/O bandwidth of the shared parallel file system during its iteratively training model.If I/O contention exists,the shared parallel file system might become a bottleneck.  相似文献   

13.
面向高性能数值计算的并行计算模型DRAM(h)   总被引:11,自引:0,他引:11  
张云泉 《计算机学报》2003,26(12):1660-1670
提出了一个基于存储层次的新并行计算模型DRAM(h),并在该模型下对两个经典并行数值计算算法的不同实现形式:四种形式并行下三角方程求解(PTRS)和六种形式无列选主元并行LU分解(PLU),进行了分析.模型分析表明,具有近乎相同时间和空间复杂性的同一算法不同实现形式,在该模型下会有完全不同的存储复杂度.作者在日立公司SR2201MPP并行机、曙光3000超级服务器和中国科学院科学与工程计算国家重点实验室(LSEC)的128节点Linux Cluster等三种并行计算平台上对模型分析结果进行了实验验证.结果表明,该模型分析在绝大多数情况下都能较好地与不同实验平台上的实验结果吻合.个别出现偏差的分析结果,在根据计算平台的存储层次特点修改模型分析的假定后,也能够进行解释.这说明了该模型对不同形式的算法实现进行存储访问模式区分的有效性.对在计算模型中加入指令/线程级并行的可行性和方法的研究是下一步的工作.  相似文献   

14.
水质模型的参数率定一直是水质预报的难点。由于要求模型计算结果准确,故必须对每个参数反复多次计算才能给出一个较为可用的参数值。用传统的串行计算方法来处理参数率定问题,其计算时间过长,无法快速给出准确的模型。文章利用已有的数据和经验,根据沙颖河具体的水质和应用特点,在国内首次提出了采用基于并行计算技术的高性能计算方法,对沙颖河支流水质模型进行多参数率定的方案,并在曙光系列并行机上得以实现。结果表明:其率定的准确性大大优于常规率定,并缩短了整个模型的建模时间,由此为模型的快速应用提供了可靠的参数依据。  相似文献   

15.
数值并行计算可扩展性评价与测试   总被引:2,自引:1,他引:2  
分析了几种可扩展性能评价模型存在的问题,针对实际评价与测试的需要,提出了一种基于等平均负载的数值并行计算可扩展性评价模型.该评价模型对可扩展性能加速比和可扩展性进行了重新定义,给出了使用该模型的进行可扩展加速比和可扩展性测试的方法,结合曲线拟合或并行计算时间模型可以预测并行系统的可扩展性,对NPB BT,SP和矩阵乘法进行了可扩展性预测.  相似文献   

16.
基于Web的数值天气预报系统的研究与设计   总被引:1,自引:0,他引:1  
数值天气预报的运行,需要高性能计算机资源的支持,而高性能计算机是一种非常昂贵的资源,对于一些小型的组织和单位来说,是一种难以负担的资源。并且目前数值天气预报模式的运行大多是基于命令行方式的,对于非专业人员来说,是很难使用的。本文以WRF模式的运行为例,通过开发用户友好的使用界面,以Web服务的形式提供给用户,方便用户操作。同时,利用兴起的云计算技术,将系统部署到云环境中,充分利用云中的高性能计算机资源,可以节约成本,也有利于业务的迅速开展。  相似文献   

17.
根据分布式存储并行计算机的体系结构特点,设计了一个结构动力数值仿真两级并行计算系统.首先通过两级分区为并行计算准备数据,并将数据分布式存储在各节点的局部存储器上;在结构动力分析过程中,通过进一步缩减问题规模和有效地提高通信效率大幅度减少了界面方程求解时间以及系统求解总时间.文中详细阐述了该系统工作原理、并行计算流程和系统实现的相关软件开发工具.最后通过典型数值算例验证了该系统的有效性.  相似文献   

18.
针对并行计算系统的性能度量问题,在产出率度量模型的基础上,建立综合系统可靠性、通信、并行化控制和成本投入要素的产出率并行加速比模型,分析总结模型中各要素影响产出率并行加速比的关键因子,包括容错开销因子、通信开销因子、并行控制开销因子及成本开销因子,对上述关键因子进行模拟实验,以验证该模型的有效性。  相似文献   

19.
中国烟草行业具有行政上的垄断性和生产上的计划性,有别于其它行业.做好卷烟销量的预测,是当前烟草行业工业生产环节与商业环节协同平滑进展的前提.鉴于此,提出基于趋势比率的卷烟预测模型,对该预测模型设计了相应的算法,最后以实际数据为例验证了趋势比率模型预测方法的有效性和实用性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号