Cyan's Blog

Search

Search IconIcon to open search

D2L-18-激活函数-Activation_Functions

Last updated Feb 12, 2022 Edit Source

# 常用激活函数

2022-02-12

Tags: #DeepLearning #ActivationFunction

1

# ReLU

修正线性单元(Rectified Linear Unit,ReLU

# 导数

# Sigmoid 函数

Sigmoid_Function

# Tanh 函数

$$\tanh (x)=\frac{1-\exp (-2 x)}{1+\exp (-2 x)}$$

# 导数

$$\frac{d}{d x} \tanh (x)=1-\tanh ^{2}(x)$$


  1. Activation Functions Explained - GELU, SELU, ELU, ReLU and more ↩︎

  2. 我们可以忽略这种情况,因为输入可能永远都不会是0。 这里引用一句古老的谚语,“如果微妙的边界条件很重要,我们很可能是在研究数学而非工程”, 这个观点正好适用于这里。 ↩︎