首页 | 本学科首页   官方微博 | 高级检索  
     

基于分布式数据集的并行计算框架内存优化方法
引用本文:夏立斌,刘晓宇,姜晓巍,孙功星.基于分布式数据集的并行计算框架内存优化方法[J].计算机工程,2023(4):43-51.
作者姓名:夏立斌  刘晓宇  姜晓巍  孙功星
作者单位:1. 中国科学院高能物理研究所;2. 中国科学院大学
基金项目:国家自然科学基金(12275295);
摘    要:随着科学计算和人工智能技术的快速发展,分布式环境下的并行计算已成为解决大规模理论计算和数据处理问题的重要手段。内存容量的提高以及迭代算法的广泛应用,使得以Spark为代表的内存计算技术愈发成熟。但是,当前主流的分布式内存模型和计算框架难以兼顾易用性和计算性能,并且在数据格式定义、内存分配、内存使用效率等方面存在不足。提出一种基于分布式数据集的并行计算方法,分别从模型理论和系统开销两个角度对内存计算进行优化。在理论上,通过对计算过程进行建模分析,以解决Spark在科学计算环境下表达能力不足的问题,同时给出计算框架的开销模型,为后续性能优化提供支持。在系统上,提出一种框架级的内存优化方法,该方法主要包括对跨语言分布式内存数据集的重构、分布式共享内存的管理、消息传递过程的优化等模块。实验结果表明,基于该优化方法实现的并行计算框架可以显著提升数据集的内存分配效率,减少序列化/反序列化开销,缓解内存占用压力,应用测试的执行时间相比Spark减少了69%~92%。

关 键 词:内存计算  并行计算  内存优化  Spark框架  消息传递接口
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号