共查询到10条相似文献,搜索用时 31 毫秒
1.
2.
3.
空间区域分解适合于大规模并行求解中子输运方程,但是子区域的增多会导致收敛变慢。为了克服这一缺点,采用粗网有限差分(CMFD)技术对空间区域分解的并行特征线方法(MOC)进行加速。使用ScaLAPACK求解CMFD粗网扩散方程;CMFD的粗网解既用来修正细网标通量,又用于修正内界面角通量。一维MOC数值结果表明,对于区域分解并行的MOC,CMFD技术是一种十分高效的加速方法,可以显著提高收敛速度。 相似文献
4.
5.
复杂物理现象通常由多类复杂的物理过程紧耦合构成,其数值模拟也通常由适用不同物理过程的多类并行应用程序紧耦合完成。如何设计这些物理过程之间的联接算法,既要保证程序之间数据传递的高效,又要保证程序各自运行和总体模拟的高效,还要保证程序各自开发的独立,是一个值得研究的课题。文章基于广泛应用于高温高压物理研究中的辐射流体力学和中子输运多物理并行数值模拟,在非结构网格上,提出了两种联接算法:完全松散联接算法和两层紧耦合联接算法。前者侧重于实现程序各自运行的高效和开发的独立,后者在前者的基础上,还权衡了数据传递和总体模拟的高效。在两台并行机的数百个处理机上,通信复杂度分析和数值实验结果表明,两种算法均是有效的,可推广应用到其他多物理并行数值模拟。特别是,两层紧耦合联接算法是高效可扩展的,取得了近似最优的并行性能。 相似文献
6.
确定论中子输运方法具有计算速度快、可获取物理量的精细场分布、可高效多物理耦合等优点,随着有限元方法在中子输运模拟中的应用,复杂几何结构、大尺度下的屏蔽问题和临界问题都能得到高保真建模和分析。离散纵标(SN)法是求解中子输运方程的有效数值方法,基于OpenMP并行机制对各独立离散方向进行并行求解,可提高SN输运模拟的计算速度,但并行规模较有限。对几何空间进行区域分解并采用MPI并行机制,可实现大规模并行扩展,进而实现对大型问题的高精度快速求解。本文采用并行自适应非结构网格应用框架JAUMIN进行区域分解和进程间通信,通过并行SN扫描实现了自主有限元输运程序ENTER的高效并行,完成正确性检验后在天河Ⅱ号超级计算机上使用1 440个CPU核完成了1.43×107网格单元、2.81×109自由度规模问题的测试,计算时间约7.4 h。表明该程序具备了有效模拟大型复杂结构中子输运问题的能力,具有一定工程应用价值。 相似文献
7.
《原子能科学技术》2020,(6)
确定论中子输运方法具有计算速度快、可获取物理量的精细场分布、可高效多物理耦合等优点,随着有限元方法在中子输运模拟中的应用,复杂几何结构、大尺度下的屏蔽问题和临界问题都能得到高保真建模和分析。离散纵标(S_N)法是求解中子输运方程的有效数值方法,基于OpenMP并行机制对各独立离散方向进行并行求解,可提高S_N输运模拟的计算速度,但并行规模较有限。对几何空间进行区域分解并采用MPI并行机制,可实现大规模并行扩展,进而实现对大型问题的高精度快速求解。本文采用并行自适应非结构网格应用框架JAUMIN进行区域分解和进程间通信,通过并行S_N扫描实现了自主有限元输运程序ENTER的高效并行,完成正确性检验后在天河Ⅱ号超级计算机上使用1 440个CPU核完成了1.43×10~7网格单元、2.81×10~9自由度规模问题的测试,计算时间约7.4 h。表明该程序具备了有效模拟大型复杂结构中子输运问题的能力,具有一定工程应用价值。 相似文献
8.
9.
反应堆精细化物理热工耦合计算可以更准确地模拟堆芯行为,但现有分析程序对不同物理场进行计算时,采用不同的离散格式和网格划分,从而导致各个物理场之间离散变量的传递需要复杂网格映射关系,特别是全堆芯精细化建模,其大规模网格映射将影响耦合系统的求解精度与效率。本文基于自主研发的多物理耦合框架MORE,以及集成于MORE的热工水力子通道软件CORTH、蒙卡程序RMC,采用区域分解并行网格映射的方法,实现了全堆芯精细网格的物理热工耦合计算,百万级的结构化网格与非结构化网格映射,20个核并行映射时间最少为8 s,最高并行映射效率为10个核并行所达到的77.96%,提升了耦合计算效率。 相似文献