You are viewing a single comment's thread from:

RE: 深度学习笔记 III – 卷积神经网络的直观解释 C - Introducing Non Linearity & Fully Connected

in #cn7 years ago

Relu 比另外两个函数好,是因为学习过程中要算微分。Sigmoid, tanh 在数值很大和很少的时候微分太接近零。这样学习速度会变得很慢。Relu 就解决这个问题。

Coin Marketplace

STEEM 0.18
TRX 0.15
JST 0.029
BTC 63439.39
ETH 2545.40
USDT 1.00
SBD 2.66