首页 | 本学科首页   官方微博 | 高级检索  
     

基于细粒度数据流架构的稀疏神经网络全连接层加速
引用本文:向陶然,叶笑春,李文明,冯煜晶,谭旭,张浩,范东睿.基于细粒度数据流架构的稀疏神经网络全连接层加速[J].计算机研究与发展,2019,56(6):1192-1204.
作者姓名:向陶然  叶笑春  李文明  冯煜晶  谭旭  张浩  范东睿
作者单位:计算机体系结构国家重点实验室(中国科学院计算技术研究所) 北京 100190;中国科学院大学 北京100049;计算机体系结构国家重点实验室(中国科学院计算技术研究所) 北京 100190
基金项目:国家重点研发计划;国家自然科学基金;国家自然科学基金;国家自然科学基金;中国科学院国际伙伴计划-对外合作重点项目;创新项目;创新项目;创新项目;创新项目
摘    要:深度神经网络(deep neural network,DNN)是目前最先进的图像识别算法,被广泛应用于人脸识别、图像识别、文字识别等领域.DNN具有极高的计算复杂性,为解决这个问题,近年来涌出了大量可以并行运算神经网络的硬件加速器.但是,DNN中的全连接层有大量的权重参数,对加速器的带宽提出了很高的要求.为了减轻加速器的带宽压力,一些DNN压缩算法被提出.然而基于FPGA和ASIC的DNN专用加速器,通常是通过牺牲硬件的灵活性获得更高的加速比和更低的能耗,很难实现稀疏神经网络的加速.而另一类基于CPU,GPU的CNN加速方案虽然较为灵活,但是带来很高的能耗.细粒度数据流体系结构打破了传统的控制流结构的限制,展示出了加速DNN的天然优势,它在提供高性能的运算能力的同时也保持了一定的灵活性.为此,提出了一种在基于细粒度数据流体系结构的硬件加速器上加速稀疏的DNN全连接层的方案.该方案相较于原有稠密的全连接层的计算减少了2.44×~6.17×的峰值带宽需求.此外细粒度数据流加速器在运行稀疏全连接层时的计算部件利用率远超过其他硬件平台对稀疏全连接层的实现,平均比CPU,GPU和mGPU分别高了43.15%,34.57%和44.24%.

关 键 词:细粒度数据流  稀疏神经网络  通用加速器  数据重用  高并行性

Accelerating Fully Connected Layers of Sparse Neural Networks with Fine-Grained Dataflow Architectures
Xiang Taoran,Ye Xiaochun,Li Wenming,Feng Yujing,Tan Xu,Zhang Hao,Fan Dongrui.Accelerating Fully Connected Layers of Sparse Neural Networks with Fine-Grained Dataflow Architectures[J].Journal of Computer Research and Development,2019,56(6):1192-1204.
Authors:Xiang Taoran  Ye Xiaochun  Li Wenming  Feng Yujing  Tan Xu  Zhang Hao  Fan Dongrui
Affiliation:(State Key Laboratory of Computer Architecture (Institute of Computing Technology,Chinese Academy of Sciences),Beijing 100190;University of Chinese Academy of Sciences,Beijing 100049)
Abstract:Xiang Taoran;Ye Xiaochun;Li Wenming;Feng Yujing;Tan Xu;Zhang Hao;Fan Dongrui(State Key Laboratory of Computer Architecture (Institute of Computing Technology,Chinese Academy of Sciences),Beijing 100190;University of Chinese Academy of Sciences,Beijing 100049)
Keywords:fine-grained dataflow  sparse neural network  general accelerator  data reuse  high parallel
本文献已被 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号