假设你有一个有 n 个神经元的输入层,第一个隐藏层有神经元,通常具有. 然后你计算动作的-隐藏层中的第一个神经元
, 在哪里是一个激活函数或者.
要训练网络,您需要计算输入的重构,表示为 ,并最小化之间的误差 和 . 现在-第一个元素 通常计算为:
我想知道为什么重建 通常使用相同的激活函数而不是使用反函数来计算,为什么要分开 和 有用而不是使用捆绑的权重和偏差?用逆激活函数计算重建对我来说似乎更直观,例如, , 如下:
请注意,这里使用了捆绑权重,即 , 和偏差 使用隐藏层,而不是为输入层引入一组额外的偏差。
还有一个非常相关的问题:为了可视化特征,而不是计算重建,通常会创建一个具有隐藏层维度的单位矩阵。然后,将矩阵的每一列用作重新激活函数的输入,该函数在输入神经元中产生一个输出。对于重新激活函数,使用相同的激活函数会更好(分别是) 或反函数 (resp. the )?