它是指激活函数的输入还是输出?
文献似乎不一致。几个例子:
Activations = 激活函数的输入
- 深度学习书,Goodfellow 等人。, 第 208、209 页
[...] 激活
- 批量标准化:通过减少内部协变量偏移来加速深度网络训练,Ioffe 等人。
我们希望通过对激活进行归一化来保留网络中的信息 [...] 请注意,由于我们对 Wu+b 进行了归一化,因此可以忽略偏差 b ...
- http://cs231n.github.io/neural-networks-1/(描述ReLU)
这是一个常见的选择,简单地将所有低于零的激活阈值到零
Activations = 激活函数的输出
- Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or -1, Courbariaux 等人谈到了预激活和激活
http://cs231n.github.io/neural-networks-1/
h1 = f(np.dot(W1, x) + b1) # calculate first hidden layer activations
h2 = f(np.dot(W2, h1) + b2) # calculate second hidden layer activations