与关于 MLPClassifier 的这个问题类似,我怀疑答案是否定的,但无论如何我都会问。
是否可以在 scikit-learn中更改MLPRegressor神经网络中输出层的激活函数?
我想用它来进行函数逼近。IE
y = f(x)
其中 x 是不超过 10 个变量的向量,y 是单个连续变量。
所以我想将输出激活更改为线性或tanh。现在它看起来像 sigmoid。
如果没有,我看不出你如何将 scikit-learn 用于分类以外的任何事情,这将是一种耻辱。
是的,我意识到我可以使用 tensorflow 或 PyTorch,但我的应用程序太基础了,我认为 scikit learn 非常适合(请原谅那里的双关语)。
是否可以使用MultiLayerPerceptron或从单个层(sknn.mlp )构建更定制的网络?
更新:
在 MultiLayerPerceptron 的文档中,它确实说:
对于输出层,您可以使用以下层类型:Linear 或 Softmax。
但再往下说:
使用多层感知器时,应直接初始化 Regressor 或 Classifier。
并且没有关于如何实例化 MultiLayerPerceptron 对象的示例。