首页 | 本学科首页   官方微博 | 高级检索  
     

深度学习模型中不同激活函数的性能分析
引用本文:张恺翊,张宁燕,江志浩,代维凯,邹晓.深度学习模型中不同激活函数的性能分析[J].信息技术与网络安全,2023(S1):149-156.
作者姓名:张恺翊  张宁燕  江志浩  代维凯  邹晓
作者单位:1. 91977部队;2. 91423部队
摘    要:近年来,人们为处理众多问题引入了各种类型的神经网络,神经网络取得了巨大的发展。任何神经网络使用的层次结构是线性和非线性函数的组合,其中最常见的非线性层是激活函数,如Logistic Sigmoid、Tanh、ReLU、ELU、Swish和Mish。对深度学习神经网络中的激活函数进行了介绍,并对不同激活函数的输出范围、单调性、平滑性等特点进行了分析。通过在数据集上测试,对现在使用频率较高的激活函数进行了性能测试。对激活函数的分析将有助于进一步地在模型设计中进行选择。

关 键 词:卷积神经网络  激活函数  性能分析
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号