激活函数总结(三十三):激活函数补充
1 引言
在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid
、Tanh
、ReLU
、Leaky ReLU
、PReLU
、Swish
、ELU
、SELU
、GELU
、Softmax
、Softplus
、Mish
、Maxout
、HardSigmoid
、HardTanh
、Hardswish
、HardShrink
、SoftShrink
、TanhShrink
、RReLU
、CELU
、ReLU6
、GLU
、SwiGLU
、GTU
、Bilinear
、ReGLU
、GEGLU
、Softmin
、Softmax2d
、Logsoftmax
、Identity
、LogSigmoid
、Bent Identity
、Absolute
、Bipolar
、Bipolar Sigmoid
、Sinusoid
、Cosine
、Arcsinh
、Arccosh
、Arctanh
、LeCun Tanh
、TanhExp
、Gaussian
、GCU
、ASU
、SQU
、NCU
、DSU
、SSU
、SReLU
、BReLU
、PELU
、Phish
、RBF
、SQ-RBF
、ISRU
、ISRLU
、SQNL
、PLU
、APL
、Inverse Cubic
、Soft Exponential
、ParametricLinear
、Piecewise Linear Unit
、CLL
、SquaredReLU
、ModReLU
、CosReLU
、SinReLU
、Probit
、Smish
、Multiquadratic
、InvMultiquadratic
、PSmish
、ESwish
、CoLU
、ShiftedSoftPlus
、Logit
、Softsign
、ELiSH
、Hard ELiSH
、Serf
、FReLU
)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
2 激活函数
2.1 QReLU激活函数
QReLU(Quantum ReLU )激活函数以定量
的方式消除“死亡ReLU
”的问题,即通过在以前的解为负
的地方实现正解
。作者通过将量子方法
和量子纠缠
原理应用于ReLU
和Leaky ReLU
,最终得到了该激活函数。其数学表达式和数学图像分别如下所示:
Q R e L U ( x ) = { x , if x > 0 0.01 ⋅ x ( x − 2 ) , if x ≤ 0 QReLU(x) = \begin{cases} x, & \text{if } x > 0 \\ 0.01 \cdot x(x-2), & \text{if } x \leq 0 \\ \end{cases} QReLU(x)={x,0.01⋅x(x−2),if x>0if x≤0
优点:
- 高泛化性:使用QReLU或m-QReLU可以在cnn和任何cnn衍生模型(如AlexNet、ResNet、DenseNet、CondenseNet、cCondensenet和VGG 16)中
消除
对多个卷积层
的需求 - 更少的超参数优化:利用QReLU或m-QReLU作为CNN中的激活函数可以最大限度地
减少
对CNN超参数优化
的需求
缺点:
- 高计算复杂度:QReLU或m-QReLU的总体
计算成本更高
该函数现在几乎没有使用。。。。
2.2 m-QReLU激活函数
m-QReLU(modified-QReLU)激活函数是利用量子叠加
原理对QReLU的正负解
进行叠加
得到的。其数学表达式和数学图像分别如下所示:
m − Q R e L U ( x ) = { x , if x > 0 0.01 ⋅ x − x , if x ≤ 0 m-QReLU(x) = \begin{cases} x, & \text{if } x > 0 \\ 0.01 \cdot x-x, & \text{if } x \leq 0 \\ \end{cases} m−QReLU(x)={x,0.01⋅x−x,if x>0if x≤0
优缺点同上,该函数现在几乎没有使用。。。。
3. 总结
到此,使用 激活函数总结(三十三) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数
也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。