首页 | 本学科首页   官方微博 | 高级检索  
     

神经网络训练处理器的浮点运算优化架构
引用本文:张立博,李昌伟,齐伟,王刚,戚鲁凤. 神经网络训练处理器的浮点运算优化架构[J]. 计算机测量与控制, 2023, 31(6): 176-182
作者姓名:张立博  李昌伟  齐伟  王刚  戚鲁凤
作者单位:中国绿发投资集团有限公司,,,,
基金项目:中国绿发投资集团有限公司科技项目(项目编号:CGDG529000220008;项目名称:多产业融合下的数据治理体系研究)
摘    要:针对神经网络训练加速器中存在权重梯度计算效率低的问题,设计了一种高性能卷积神经网络(CNN)训练处理器的浮点运算优化架构。在分析CNN训练架构基本原理的基础上, 提出了包括32bit、24bit、16bit和混合精度的训练优化架构,从而找到适用于低能耗且更小尺寸边缘设备的最佳浮点格式。通过现场可编程门阵列(FPGA)验证了加速器引擎可用于MNIST手写数字数据集的推理和训练,利用24bit自定义浮点格式与16bit脑浮点格式相结合构成混合卷积24bit浮点格式的准确率可达到93%以上。运用台积电55nm芯片实现优化混合精度加速器,训练每幅图像的能耗为8.51μJ。

关 键 词:卷积神经网络  浮点运算  加速器  权重梯度  处理器
收稿时间:2022-10-17
修稿时间:2022-11-06

Floating Point Optimization Architecture of Neural Network Training Processor
Abstract:
Keywords:convolutional neural network   Floating point operation   Accelerator   Weight gradient   processor
点击此处可从《计算机测量与控制》浏览原始摘要信息
点击此处可从《计算机测量与控制》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号