
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
激活函数变种(Sigmoid、Hard-Sigmoid、Tanh、ReLU、Leaky ReLU、ELU、SELU、ReLU6、Swish、Hard-Swish、Mish)
激活函数的作用:提供网络的非线性表达建模能力。线性可分数据:可以通过机器学习(感知机、SVM)找到的线性方程来进行划分。非线性可分数据:找不到一种线性方程来划分数据,此时需要引入非线性函数。什么样的激活函数是好的激活函数:有上界,无下界,连续,非单调,响应均值为0,无梯度消失和梯度爆炸,易于计算。Sigmoid图中,梯度软饱和表示区域零但是没有到0;输出均值不为0,则网络收敛较慢。Hard-Sig
到底了







