回归时输出层缺少激活函数?

数据挖掘 神经网络
2022-02-03 10:09:02

我认为输出层应该具有某种用于回归的激活函数(最好是线性或 tanh) ,但我最近读到,在回归的情况下,这不是必需的。这似乎是合理的,毕竟输出层的节点自己产生数值。哪种解决方案更好:有或没有激活函数?

1个回答

激活“线性”与“无激活函数”相同。术语“线性输出层”也恰好意味着“最后一层没有激活函数”。您是否使用一个或另一个术语可能取决于您的 NN 库如何实现它。您也可能会在文档中看到它以任何一种方式描述,但它在数学上完全相同:

ajout=bjout+i=1NhiddenWijaihidden

在哪里a值是激活,b是偏见,W是权重矩阵。

对于具有均方误差目标的回归问题,这是最常见的方法。

没有什么可以阻止您使用其他激活功能。如果它们与目标变量分布相匹配,它们可能会对您有所帮助。关于唯一的规则是您的网络输出应该能够覆盖目标变量的可能值。因此,如果目标变量始终介于 -1.0 和 1.0 之间,并且密度更高,大约为 0.0,那么也许 tanh 也可以为您工作。