You are viewing a single comment's thread from:

RE: 深度学习笔记 III – 卷积神经网络的直观解释 C - Introducing Non Linearity & Fully Connected

in #cn7 years ago

写得不錯!我觉得你对ReLu的解释已经很好。以我所知,激活函数就只用来添加非线性。若果沒有激活,神经网络就变成普通的线性回归(linear regression)。激活(activation) 是从生物学借来的,因为人腦的神经元有一个激活步骤才能向下个神经元发信息。

Sort:  

Relu 比另外两个函数好,是因为学习过程中要算微分。Sigmoid, tanh 在数值很大和很少的时候微分太接近零。这样学习速度会变得很慢。Relu 就解决这个问题。

谢谢谢谢! 你让我对激活(activation)这个词出现在这里的原因一下子清楚了好多。
tanh or sigmoid这两个函数做激活,我还能想象是为了添加非线性,ReLU相当于把负数全给变零了。。。这不会丢失信息吗? 我看了好多文章在讲ReLU在大多数情况下还是最优的,这两天再深入看一下,谢谢你。

嗯,这也是我不太想得通的地方。我也去深入看一下。

Coin Marketplace

STEEM 0.19
TRX 0.15
JST 0.029
BTC 63470.48
ETH 2544.22
USDT 1.00
SBD 2.72