激活函数总结(二十一):激活函数补充
- 1 引言
- 2 激活函数
- 2.1 Adaptive piecewise linear(APL)激活函数
- 2.2 Inverse Cubic激活函数
- 3. 总结
1 引言
在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid、Tanh、ReLU、Leaky ReLU、PReLU、Swish、ELU、SELU、GELU、Softmax、Softplus、Mish、Maxout、HardSigmoid、HardTanh、Hardswish、HardShrink、SoftShrink、TanhShrink、RReLU、CELU、ReLU6、GLU、SwiGLU、GTU、Bilinear、ReGLU、GEGLU、Softmin、Softmax2d、Logsoftmax、Identity、LogSigmoid、Bent Identity、Absolute、Bipolar、Bipolar Sigmoid、Sinusoid、Cosine、Arcsinh、Arccosh、Arctanh、LeCun Tanh、TanhExp、Gaussian 、GCU、ASU、SQU、NCU、DSU、SSU、SReLU、BReLU、PELU、Phish、RBF、SQ-RBF、ISRU、ISRLU、SQNL、PLU)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:

2 激活函数
2.1 Adaptive piecewise linear(APL)激活函数
论文链接:https://arxiv.org/pdf/1512.07030.pdf
APL 激活函数是一种非线性激活函数,全称为 “Asymmetrical Piecewise Linear Unit”(不对称分段线性单元)。它与一些常见的激活函数(如 ReLU、Leaky ReLU 等)不同,具有不对称的线性变换,可以引入更多的非线性性质。其数学表达式和数学图像分别如下所示:
A
P
L
(
x
)
=
m
a
x
(
0
,
x
)
+
∑
s
=
1
S
a
i
s
m
a
x
(
0
,
−
x
+
b
i
s
)
APL(x)=max(0,x)+\sum_{s=1}^{S}a_i^smax(0,-x+b_i^s)
APL(x)=max(0,x)+s=1∑Saismax(0,−x+bis)
优点:
-
非线性性质: APL 激活函数引入了
非线性性质,使得神经网络可以更好地捕捉输入数据中的非线性模式。 -
分段线性特性: APL 激活函数通过
分段线性变换,允许在不同的输入范围内引入不同的线性特性,增加了网络的灵活性。 -
参数控制: 通过调整参数 a i s a_i^s ais 和 b i s b_i^s bis,可以精细调节 APL 激活函数的
斜率和分段位置,以适应不同的任务需求。 -
可解释性: APL 激活函数的表达式具有
明确的形式,参数 a i s a_i^s ais 和 b i s b_i^s bis可以对激活函数的形状进行解释。
缺点:
-
复杂性: APL 激活函数的数学表达式较为
复杂,包含了多个参数和分段线性操作,可能增加了计算的复杂性。 -
参数设置: 需要仔细调整参数 a i s a_i^s ais 和 b i s b_i^s bis才能获得
最佳性能,这可能需要一些实验和调试。 -
计算开销: 由于包含了
多个分段线性操作,可能在计算上相对于一些简单的激活函数而言具有一定的计算开销。 -
可解释性挑战: 尽管有明确的形式,但对于一些非专业人士来说,理解参数 a i s a_i^s ais 和 b i s b_i^s bis
如何影响激活函数的行为可能具有一定挑战。
总体而言,APL 激活函数通过引入分段线性特性和参数控制,可以在特定问题和网络结构中发挥作用。 很少使用。。。。。。
2.2 Inverse Cubic激活函数
函数链接:https://en.wikipedia.org/w/index.php?title=Activation_function&oldid=760259047#Comparison_of_activation_functions
Inverse Cubic激活函数是维基百科中的一个函数,其数学表达式如下所示:
f
(
x
)
=
(
9
x
2
+
4
+
3
x
2
)
1
3
−
(
9
x
2
+
4
+
3
x
2
)
−
1
3
f(x)=(\frac{\sqrt{9x^2+4}+3x}{2})^{\frac13}-(\frac{\sqrt{9x^2+4}+3x}{2})^{\frac{-1}{3}}
f(x)=(29x2+4+3x)31−(29x2+4+3x)3−1
优点:
- 引入非线性性质: 这个激活函数引入了
非线性特性,有助于神经网络捕捉数据中的非线性模式。 - 对称性: 激活函数的形式表现出一定的
对称性,这可能在某些情况下对于数据建模具有一定的好处。 - 连续性: 尽管
形式复杂,但是这个激活函数是连续的,在计算梯度和进行优化时可能更容易处理。
缺点:
- 复杂性: 这个激活函数的表达式非常
复杂,包含多个数学运算,可能增加了计算的复杂性,尤其是在大规模的神经网络中。 - 数值稳定性: 由于激活函数中包含
根号运算,可能在输入值较小时导致数值不稳定性,影响计算和优化过程。 - 梯度计算: 由于激活函数的复杂性,计算其
导数可能相对困难,尤其是在自动微分框架中。 - 解释性: 由于其数学形式的复杂性,这个激活函数可能在
解释性方面存在挑战,对于非专业人士来说可能不容易理解。
总之,虽然这个激活函数具有一些独特的特点,但是其复杂性和数值稳定性问题可能限制了其在实际应用中的使用。
3. 总结
到此,使用 激活函数总结(二十一) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。



















