首页 | 本学科首页   官方微博 | 高级检索  
     

卷积神经网络中SPReLU激活函数的优化研究
引用本文:吴婷婷,许晓东,吴云龙. 卷积神经网络中SPReLU激活函数的优化研究[J]. 计算机与数字工程, 2021, 49(8): 1637-1641. DOI: 10.3969/j.issn.1672-9722.2021.08.026
作者姓名:吴婷婷  许晓东  吴云龙
作者单位:江苏大学计算机科学与通信工程学院 镇江 212013
摘    要:由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将S型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Soft-plus三种激活函数优点,提出了一种新型激活函数SPReLU.实验结果表明,SPReLU函数在性...

关 键 词:卷积神经网络  激活函数  梯度消失  神经元死亡  ReLU

Research on Optimization of SPReLU Activation Function in Convolutional Neural Network
WU Tingting,XU Xiaodong,WU Yunlong. Research on Optimization of SPReLU Activation Function in Convolutional Neural Network[J]. Computer and Digital Engineering, 2021, 49(8): 1637-1641. DOI: 10.3969/j.issn.1672-9722.2021.08.026
Authors:WU Tingting  XU Xiaodong  WU Yunlong
Abstract:
Keywords:
本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号