首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 61 毫秒
1.
特征线方法(MOC)在求解堆芯规模中子输运方程时面临计算时间长的问题,加速和并行算法是目前研究的热点。基于MOC在特征线和能群层面的并行特性,采用统一计算设备构架(CUDA)编程规范,实现了基于图形处理器(GPU)的并行二维MOC算法。测试了菱形差分和步特征线法分别在双精度、混合精度及单精度浮点运算下的计算精度、效率及GPU加速效果。采用性能分析工具对GPU程序性能进行了分析,识别了程序性能瓶颈。结果表明:菱形差分和步特征线法在不同浮点运算精度下均表现出良好的计算精度;相比于CPU单线程计算,GPU加速效果在双精度和单精度情况下分别达到35倍和100倍以上。  相似文献   

2.
直接模拟方法(DSM)是一种新的用于求解三维瞬态中子输运问题的方法.该方法通过直接模拟瞬态过程中系统内中子和缓发中子先驱核的动态行为来求解核反应堆动力学问题.由于该方法取消了现有方法的各种近似,具有普适通用性.本文在详细研究该方法的基础上,开发了相应的瞬态分析程序TMCC,并进行了算例的验证.  相似文献   

3.
CPU-GPU异构系统为加速全堆芯特征线方法(MOC)精细计算提供了方法和思路。在实现基于CPU-GPU异构系统的二维MOC异构并行算法基础上,提出了性能分析模型,识别了影响异构并行算法并行效率的主要因素;针对识别到的性能影响因素,实现了输运计算与数据传递相互掩盖,提升了异构并行算法的整体并行效率。数值结果表明:程序具备良好的计算精度;数据传递(MPI通信和CPU与GPU之间的数据拷贝)是影响异构并行算法并行效率的主要因素;实现输运计算与数据传递相互掩盖后,程序性能和强并行效率均有所提升;5异构节点(包含20块GPU)并行时,程序整体效率提升达8%,强并行效率从87%提升到95%;相比CPU节点并行计算,4个CPU-GPU异构节点整体性能优于20个CPU节点。  相似文献   

4.
蒙特卡罗方法在中子时空动力学问题中的应用   总被引:1,自引:1,他引:1  
对现有用于解决核反应堆时空动力学问题的基于输运理论的各种方法与计算机程序系统进行了分析.综合考虑了确定论方法和蒙特卡罗方法求解输运问题的优缺点,提出一种以蒙特卡罗方法为基础的直接模拟方法.该方法通过直接模拟堆芯内中子和先驱核的动态行为来实现对瞬态问题的求解,取消了现有方法的各种近似,具有普适通用性.为了验证该方法的有效性,在一定近似处理的前提下,开发出了相应的程序,并计算了相关的问题.结果表明,该方法用于计算各种核反应堆动力学问题是可行的.  相似文献   

5.
6.
随着中子动力学计算的精度要求以及计算条件的不断提高,如何更好地处理三维时空中子动力学方程的刚性问题对于提高计算效率具有非常重要的工程应用价值。本文应用刚性限制法处理方程组的时间变量,并与空间变量处理方法变分节块法相耦合建立了相应的时空中子动力学计算模型。基准题的数值计算结果表明,刚性限制法可与包括变分节块法在内的各种稳态计算方法耦合以求解时空多群中子动力学问题,且取得了很好的计算精度,允许较大的计算时间步长,以及拥有很好的计算效率。  相似文献   

7.
为提高中子输运问题的计算时程效率,本文采用角度多重网格(ANMG)加速方法加速源迭代过程,并在此基础上给出了Lyusternik-Wagner外推加速技术,并应用到中子输运方程最小二乘有限元计算程序LESFES中.数值结果表明:无论对于各向同性散射问题还是强各向异性散射问题,ANMG加速方法具有良好的加速效果;而且在ANMG加速方法的基础上增加Lyusternik-Wagner外推加速技术后,可以使整体加速效果更加明显.  相似文献   

8.
快堆中子时空动力学程序是基于快堆中子学设计软件系统(NAS)开发的可用于快堆三维瞬态中子学分析的计算程序。本文结合该计算程序及现代计算机发展特点,在编程过程中引入并行计算,使计算速度大幅提升。  相似文献   

9.
以中子学计算为主干,采用隐式龙格库塔进行时间离散,粗网节块法进行扩散计算实现堆芯三维少群时空动力学的计算。在其瞬态计算过程中引入热工反馈计算进行截面更新,以逼近真实堆芯的瞬态行为。解读和分析对应的热工反馈计算部分,并通过福清机组的插棒提棒问题进行数值验证。结果表明引入的热工反馈计算在固定步长和自适应步长情况下与商业SMART软件的计算结果符合较好。  相似文献   

10.
为准确计算反应堆内燃耗问题,建立了基于二维离散纵标法及BATEMAN燃耗方法的输运燃耗耦合计算方法,并开发相应的计算程序。基于ENDF/B-Ⅶ评价库开发了175群中子和42群光子截面数据库MUSE-F1.0,采用OECD/NEA发布的MOX燃料快堆基准题对耦合计算方法及程序系统进行验证计算。结果表明,耦合计算程序结果与基准题吻合良好,误差在8%以内,初步验证了耦合计算程序在快堆嬗变工程应用中的可行性。  相似文献   

11.
12.
随着各种新堆型的提出,全堆芯非均匀计算的需求也日益迫切。基于需求和可行性的考虑,提出了二维/一维(2D/1D)耦合方法求解三维(3D)非均匀问题,国际上已经开发出许多这样的程序。本文基于模块化特征线方法开发了2D/1D耦合程序—MOCHA_2D1D,2D耦合程序计算采用模块化特征线方法,1D耦合程序计算采用Sn差分方法。经过验证,程序计算精度符合反应堆物理计算要求。  相似文献   

13.
基于CUDA C,使用GPU模拟了波形板内大量液滴的二维运动。根据GPU硬件特性,优化了模拟算法。在CPU上实现相同算法,对比了单一液滴直径、不同液滴数量下GPU与CPU的计算时间。结果表明:液滴数量越大,GPU并行加速效果越明显,在液滴数量较大时,得到约60倍的加速。用GPU分析了典型液滴直径分布的情况,得到约30倍的加速。  相似文献   

14.
俄罗斯商用压水堆VVER和大多数实验堆均采用了六角形紧凑型栅格布置,为了实现VVER和六角形实验堆的高保真数值模拟分析,本文基于数值反应堆物理计算程序(NECP-X)开展了六角形堆芯高保真计算方法研究和程序开发。首先,将全局-局部耦合共振自屏计算方法拓展至六角形堆芯,实现六角形堆芯燃料棒的全堆芯高精度共振计算;其次,基于2D/1D耦合输运计算方法研究了六角形堆芯的高保真计算方法;最后,为了提高全堆芯计算的计算效率,研究了基于区域分解松耦合的非结构网格的粗网有限差分(CMFD)加速方法,可以实现以矩形、六角形和其他多边形栅元为基础的pin-by-pin CMFD 加速。为了验证六角形堆芯高保真计算方法的精度和效率,计算了六角形C5G7基准问题,并分析了六角形输运计算方法的计算精度和CMFD方法的加速效果;将NECP-X程序应用于西安脉冲堆的2D全堆芯计算,与蒙特卡罗程序的结果对比表明NECP-X程序计算得到的特征值和功率分布均具有较高精度。因此,本文建立的六角形堆芯高保真计算方法可以应用于六角形堆芯的分析计算。   相似文献   

15.
《核动力工程》2016,(4):154-159
针对先进核反应堆中结构复杂的燃料组件,基于特征线中子输运计算方法,在先进栅格计算程序KYLIN-2中开发能够满足各类燃料组件中子学数值模拟的输运计算模块。分别利用循环射线布置和射线反向延长追踪技术处理特定和任意边界条件问题,同时采用广义粗网格有限差分加速方法(GCMFD)来加速中子输运求解流程。数值结果表明,开发的特征线方法模块具有较高的计算精度,满足未来工程使用的需求。  相似文献   

16.
GPU加速三维特征线方法的研究   总被引:3,自引:0,他引:3  
三维特征线方法可以精确求解任意几何堆芯的稳态多群中子输运方程,但同时也具有收敛慢、计算时间长的不足,需要研究相应的加速手段.图形处理器(GPU)计算由于具有速度快,能耗低的优点,被认为是未来高性能计算发展的方向之一.研究GPU计算加速三维特征线方法,并将其应用到三维特征线程序TCM中.借助统一计算设备架构(CUDA)的GPU计算,中央处理器(CPU)负责内存分配、有效增殖系数keff和源分布计算等逻辑性强或归约计算的处理,GPU执行特征线射线扫描细网求解细网通量.计算结果表明,经改写后的程序具有良好的加速效果.  相似文献   

17.
The Simplified PN (SPN) method is applied to the axial solution of the two-dimensional (2-D) method of characteristics (MOC) solution based whole core transport calculation. A sub-plane scheme and the nodal expansion method (NEM) are employed for the solution of the one-dimensional (1-D) SPN equations involving a radial transverse leakage. The SPN solver replaces the axial diffusion solver of the DeCART direct whole core transport code to provide more accurate, transport theory based axial solutions. In the sub-plane scheme, the radial equivalent homogenization parameters generated by the local MOC for a thick plane are assigned to the multiple finer planes in the subsequent global three-dimensional (3-D) coarse mesh finite difference (CMFD) calculation in which the NEM is employed for the axial solution. The sub-plane scheme induces a much less nodal error while having little impact on the axial leakage representation of the radial MOC calculation. The performance of the sub-plane scheme and SPN nodal transport solver is examined by solving a set of demonstrative problems and the C5G7MOX 3-D extension benchmark problems. It is shown in the demonstrative problems that the nodal error reaching upto 1,400 pcm in a rodded case is reduced to 10pcm by introducing 10 sub-planes per MOC plane and the transport error is reduced from about 150pcm to 10pcm by using SP3. Also it is observed, in the C5G7MOX rodded configuration B problem, that the eigenvalues and pin power errors of 180 pcm and 2.2% of the 10 sub-planes diffusion case are reduced to 40 pcm and 1.4%, respectively, for SP3 with only about a 15% increase in the computing time. It is shown that the SP5 case gives very similar results to the SP3 case.  相似文献   

18.
The method of characteristics (MOC) has great geometrical flexibility but poor computational efficiency in neutron transport calculations. The generalized minimal residual (GMRES) method, a type of Krylov subspace method, is utilized to accelerate a 2D generalized geometry characteristics solver AutoMOC. In this technique, a form of linear algebraic equation system for angular flux moments and boundary fluxes is derived to replace the conventional characteristics sweep (i.e. inner iteration) scheme, and then the GMRES method is implemented as an efficient linear system solver. This acceleration method is proved to be reliable in theory and simple for implementation. Furthermore, as introducing no restriction in geometry treatment, it is suitable for acceleration of an arbitrary geometry MOC solver. However, it is observed that the speedup decreases when the matrix becomes larger. The spatial domain decomposition method and multiprocessing parallel technology are then employed to overcome the problem. The calculation domain is partitioned into several sub-domains. For each of them, a smaller matrix is established and solved by GMRES; and the adjacent sub-domains are coupled by “inner-edges”, where the trajectory mismatches are considered adequately. Moreover, a matched ray tracing system is developed on the basis of AutoCAD, which allows a user to define the sub-domains on demand conveniently. Numerical results demonstrate that the acceleration techniques are efficient without loss of accuracy, even in the case of large-scale and strong scattering problems in complex geometries.  相似文献   

19.
研究了使用图形处理器(GPU)对调强放射治疗计划系统(IMRT)中分子动力学优化方法的加速方法及效果。利用统一计算设备构架(CUDA)平台,分别对4个临床肿瘤调强病例的笔束剂量响应矩阵的乘积运算进行GPU并行优化加速。比较和分析GPU并行加速笔束剂量响应矩阵的乘积运算的结果。结果表明,GPU平台上的计算结果与CPU平台的计算结果存在一定的差异,其最大相对误差为5.822×10-7,这一差异在临床上是可以接受的,GPU并行运算可以使计算速度提升9-12倍。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号