首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
伴随着GPGPU计算技术的不断发展,HPC高性能计算系统体系结构正在悄然发生着一场变革,这场变革为高性能计算发展提供了一个新的方向、CUDA是NIVIDIA公司提供的利用GPGPU进行并行运算应用开发的一套C语言编程平台,通过它可以利用特定显卡的高性能运算能力进行一些大规模高性能计算,有效提升计算机系统的使用效率,本文主要介绍GPU发展现状以及如何利用CUDA编程技术进行并行运算软件开发.  相似文献   

2.
【目的】随着云计算、物联网以及人工智能等新型高通量应用的迅速兴起,高性能计算的主要应用从传统的科学与工程计算为主逐步演变为以新兴数据处理为核心,这给传统处理器带来了巨大的挑战,而高通量众核处理器作为面向此类应用的新型处理器结构成为重要的研究方向。【方法】针对上述问题,本文分析了高通量典型应用特征,从数据处理端、传输端以及存储端三个核心环节开展了高通量众核处理器关键技术设计探讨,包括实时任务动态调度、高密度片上网络设计、片上存储层次优化等。【结果】实验结果显示上述机制可以有效确保任务的服务质量,提升网络的数据吞吐率,以及简化片上存储层次。【结论】随着万物互联时代对高并发强实时处理的迫切需求,高通量众核处理器有望成为未来数据中心的核心处理引擎。  相似文献   

3.
本文介绍了高性能并行计算在CFD数值模拟中的应用。CFD高性能并行计算可扩大求解规模,加快求解速度,是CFD实现高效计算的必然发展趋势。本文通过"数值风洞"的概念分析了CFD高性能计算的应用前景及对高性能计算的需求。通过某乘波飞行器前体并行算例对8~256CPU的CFD大规模并行效率和加速比进行了分析,并将CFD并行计算应用于高温热化学非平衡的返回舱数值计算中。  相似文献   

4.
基于当下人工智能与大数据并行应用的重要性,将二者融合的高效能算法进行侧重分析十分关键,研究发现,人工智能与大数据高效能算法依然处在起步阶段,很多因素与问题都对其全面设计、优化造成阻碍.本文将对面向人工智能和大数据的高效能计算进行分析,为下一步工作开展提供参考依据.  相似文献   

5.
应用驱动的高效能计算机系统的研究与发展   总被引:1,自引:0,他引:1  
在分析并行应用为高效能计算机系统提出的挑战的基础上,针对Cray和IBM的相关计划,探讨了应用对高效能计算机研发计划、系统决策、系统架构以及系统软件的影响,总结了有代表性的千万亿次计算机计划及其系统,并从应用范围的角度对高效能计算机系统进行了分类;进一步综述了高效能计算机系统在体系结构、编程环境、管理以及鲁棒性等方面取得的进展.最后从应用的角度展望了高效能计算机系统的发展.  相似文献   

6.
基于Hadoop的高性能海量数据处理平台研究   总被引:2,自引:0,他引:2  
海量数据高性能计算蕴藏着巨大的应用价值,但是目前云计算体系只具有海量数据处理能力,而不具有足够的高性能计算能力。将具有超强并行计算能力的CPU与云计算相融合,提出了基于CPU/GPU协同的异构高性能云计算体系结构。以开源Hadoop为基础,采用注释码的形式对MapReduce函数中需要并行的部分进行标记。通过 定制GPU类加载器,将被标记代码转换为CUDA代码并动态编译运行。该平台将GPU的计算能力融合到MapReduce框架中,可高效处理海量数据。  相似文献   

7.
CPU/GPU协同并行计算研究综述   总被引:6,自引:3,他引:3  
CPU/GPU异构混合并行系统以其强劲计算能力、高性价比和低能耗等特点成为新型高性能计算平台,但其复杂体系结构为并行计算研究提出了巨大挑战。CPU/GPU协同并行计算属于新兴研究领域,是一个开放的课题。根据所用计算资源的规模将CPU/GPU协同并行计算研究划分为三类,尔后从立项依据、研究内容和研究方法等方面重点介绍了几个混合计算项目,并指出了可进一步研究的方向,以期为领域科学家进行协同并行计算研究提供一定参考。  相似文献   

8.
【目的】在“东数西算”工程的大背景下,为了更好地实现对分布在不同地域超级计算机资源的调度管理,针对计算资源忙闲不均等问题,提出通过研究典型应用作业的运行特征,开发多中心任务的调度系统,以解决国家高性能计算环境统一调度的关键技术问题。【方法】首先收集了若干超级计算中心的应用运行历史情况,建立了应用运行历史数据库;其次将用户应用对资源的需求和典型应用的资源使用特征分析相结合,通过机器学习的方法,建立了一种可精确描述应用特征的框架;然后实现了跨集群高性能计算应用的容器方式迁移;最后研究了基于多中心应用特征的任务调度方法,开发了基于应用感知的全局资源优化调度系统。【结果】该系统为国家高性能计算环境服务化运营和稳定运行提供了有力的技术支撑。【结论】基于应用感知的算力优化调度方法可望有效提高“东数西算”的可靠性、可用性和可维护性。  相似文献   

9.
一种对象化并行计算框架   总被引:1,自引:1,他引:0  
分布式计算、并行计算、内存计算是目前提高计算性能的关键技术和热点研究领域。在大数据环境下,针对数据型统计分析系统性能劣化明显、不能满足用户使用需求的问题,提出了一种轻量级高性能对象化并行计算架构,研制了该架构的对象服务组件、对象管理服务组件和客户端代理组件,并将该架构和组件在国家电网资产质量监督管理系统中进行了验证应用,其效果表明该框架能大幅提升大数据处理效率。  相似文献   

10.
【目的】生物医学领域对高性能计算需求突出,结合发展现状和挑战,提出针对性建议。【方法】从计算基础设施、软件工具资源、人才成果统计、数据安全监管4个方面,调研国内外生物医学领域高性能计算平台建设进展,归纳总结发展特点、存在差距及现实挑战。【结果】提出推进算网融合发展、鼓励软件研发创新、培养复合型人才、加强标准规范建设等发展建议。【结论】围绕资源、技术、人员和标准开展高性能计算建设,以期推动生物医学与信息技术的深度融合,支撑新技术的研发、应用与服务。  相似文献   

11.
The availability of huge structured and unstructured data, advanced highly dense memory and high performance computing machines have provided a strong push for the development in artificial intelligence (AI) and machine learning (ML) domains. AI and machine learning has rekindled the hope of efficiently solving complex problems which was not possible in the recent past. The generation and availability of big-data is a strong driving force for the development of AI/ML applications, however, several challenges need to be addressed, like processing speed, memory requirement, high bandwidth, low latency memory access, and highly conductive and flexible connections between processing units and memory blocks. The conventional computing platforms are unable to address these issues with machine learning and AI. Deep neural networks (DNNs) are widely employed for machine learning and AI applications, like speech recognition, computer vison, robotics, and so forth, efficiently and accurately. However, accuracy is achieved at the cost of high computational complexity, sacrificing energy efficiency and throughput like performance measuring parameters along with high latency. To address the problems of latency, energy efficiency, complexity, power consumption, and so forth, a lot of state of the art DNN accelerators have been designed and implemented in the form of application specific integrated circuits (ASICs) and field programmable gate arrays (FPGAs). This work provides the state of the art of all these DNN accelerators which have been developed recently. Various DNN architectures, their computing units, emerging technologies used in improving the performance of DNN accelerators will be discussed. Finally, we will try to explore the scope for further improvement in these accelerator designs, various opportunities and challenges for the future research.  相似文献   

12.
深度学习认知计算综述   总被引:14,自引:8,他引:6  
随着大数据和智能时代的到来,机器学习的研究重心已开始从感知领域转移到认知计算(Cognitive computing,CC)领域,如何提升对大规模数据的认知能力已成为智能科学与技术的一大研究热点,最近的深度学习有望开启大数据认知计算领域的研究新热潮.本文总结了近年来大数据环境下基于深度学习的认知计算研究进展,分别从深度学习数据表示、认知模型、深度学习并行计算及其应用等方面进行了前沿概况、比较和分析,对面向大数据的深度学习认知计算的挑战和发展趋势进行了总结、思考与展望.  相似文献   

13.
With the convergence of high-performance computing(HPC),big data and artificial intelligence(AI),the HPC community is pushing for"triple use"systems to expedite scientific discoveries.However,supporting these converged applications on HPC systems presents formidable challenges in terms of storage and data management due to the explosive growth of scientific data and the fundamental differences in I/O characteristics among HPC,big data and AI workloads.In this paper,we discuss the driving force behind the converging trend,highlight three data management challenges,and summarize our efforts in addressing these data management challenges on a typical HPC system at the parallel file system,data management middleware,and user application levels.As HPC systems are approaching the border of exascale computing,this paper sheds light on how to enable application-driven data management as a preliminary step toward the deep convergence of exascale computing ecosystems,big data,and AI.  相似文献   

14.
随着万物互联时代的到来,边缘设备规模急剧增加,海量数据在网络边缘产生,人工智能技术的飞速发展为分析和处理这些数据提供了强大的支撑.然而,传统云计算的集中处理模式难以满足用户对任务低时延和设备低功耗的需求,并带来数据隐私泄露的潜在隐患.与此同时,嵌入式高性能芯片的发展显著提升了边缘设备的计算能力,使其能够在边缘侧实时处理部分计算密集型任务.在此背景下,边缘计算和人工智能有机融合,孕育了一种新的计算范式:边缘智能.鉴于此,聚焦边缘智能与协同计算的前沿与进展,首先概述边缘计算、人工智能和边缘智能的相关背景、基本原理与发展趋势;然后从训练、推理和缓存3个方面回顾面向单个设备的边缘智能方法;接着从架构、技术和功能3个维度介绍多个设备合作实现边缘智能协同的相关工作;最后总结边缘智能在工业物联网、智慧城市和虚拟现实等领域的广泛应用.  相似文献   

15.
邱赐云  李礼  张欢  吴佳 《计算机科学》2018,45(Z11):71-75
海量数据的出现和硬件计算能力的提升,催生了第三次人工智能的发展热潮,大数据时代来临。首先,分析了拥有冯·诺依曼体系结构的计算机在大数据时代遭遇的存储墙、带宽墙和功耗高问题,引出为适应和满足大数据处理需求的计算机体系结构的发展趋势;接着,分析计算机体系结构层面的计算存储融合技术、软硬件结构、offloading算法的设计思路与技术特点,以及在商业系统中的应用,为高性能计算、数据中心建设和智能SSD产品设计等提供启发意义;分析微观层面基于硅穿孔的3D堆叠封装技术和最新的产业动态;最后,阐述代表计算存储一体化发展目标的类脑计算和最新的研究进展。  相似文献   

16.
The advancement of artificial intelligence (AI) has truly stimulated the development and deployment of autonomous vehicles (AVs) in the transportation industry. Fueled by big data from various sensing devices and advanced computing resources, AI has become an essential component of AVs for perceiving the surrounding environment and making appropriate decision in motion. To achieve goal of full automation (i.e., self-driving), it is important to know how AI works in AV systems. Existing research have made great efforts in investigating different aspects of applying AI in AV development. However, few studies have offered the research community a thorough examination of current practices in implementing AI in AVs. Thus, this paper aims to shorten the gap by providing a comprehensive survey of key studies in this research avenue. Specifically, it intends to analyze their use of AIs in supporting the primary applications in AVs: 1) perception; 2) localization and mapping; and 3) decision making. It investigates the current practices to understand how AI can be used and what are the challenges and issues associated with their implementation. Based on the exploration of current practices and technology advances, this paper further provides insights into potential opportunities regarding the use of AI in conjunction with other emerging technologies: 1) high definition maps, big data, and high performance computing; 2) augmented reality (AR)/virtual reality (VR) enhanced simulation platform; and 3) 5G communication for connected AVs. This paper is expected to offer a quick reference for researchers interested in understanding the use of AI in AV research.   相似文献   

17.
[目的]促进区块链与新一代人工智能技术的融合发展,利用人工智能的学习、推理和决策能力解决区块链面临的关键问题与挑战,已经成为区块链技术发展的重要突破口.[方法]致力于研究区块链与人工智能相结合的新范式,将目前相对中心化的人工智能算法嵌入到去中心化的区块链系统,使得二者共融、增强.[结果]提出了区块链赋能的智能组件概念与...  相似文献   

18.
Progress and Challenge of Artificial Intelligence   总被引:1,自引:0,他引:1       下载免费PDF全文
Artificial Intelligence (AI) is generally considered to be a subfield of computer science, that is concerned to attempt simulation, extension and expansion of human intelligence. Artificial intelligence has enjoyed tremendous success over the last fifty years. In this paper we only focus on visual perception, granular computing, agent computing, semantic grid. Human-level intelligence is the long-term goal of artificial intelligence. We should do joint research on basic theory and technology of intelligence by brain science, cognitive science, artificial intelligence and others. A new cross discipline intelligence science is undergoing a rapid development. Future challenges are given in final section.  相似文献   

19.
[目的]物联网是物体之间共享资源和交流信息的平台,其上的数据价值不断被挖掘显现,而区块链作为一种新型的数据存储管理模式,在体系去中心化、数据溯源和防篡改等方面拥有良好的效果.近来,不少研究都探索了区块链在物联网中的应用.[方法]利用文献计量工具CiteSpace,采用关键词共现分析等方法分析了关键词包含区块链和物联网的...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号