排序方式: 共有1条查询结果,搜索用时 15 毫秒
1
1.
深度学习模型压缩与加速综述 总被引:1,自引:0,他引:1
随着训练可用数据量的增长与计算平台处理能力的增强,基于深度学习的智能模型能完成越来越复杂的任务,其在计算机视觉、自然语言处理等人工智能领域已经取得重大突破.然而这些深度模型具有庞大的参数规模,与之伴随着可畏的计算开销与内存需求,使得其在计算能力受限平台(例如移动嵌入式设备)的部署中遇到了巨大的困难与挑战,因此如何在不影响深度学习模型性能的情况下进行模型压缩与加速成为研究热点.本文首先对国内外学者提出的经典深度学习模型压缩与加速方法进行分析,从参数剪枝、参数量化、紧凑网络、知识蒸馏、低秩分解、参数共享和混合方式等7个方面分类总结.其次,总结对比几种主流技术的代表性方法在多个公开模型上的压缩与加速效果.最后,对于模型压缩与加速领域的未来研究方向进行展望. 相似文献
1