在顺序模型中将激活函数设置为泄漏的 relu

数据挖掘 喀拉斯 张量流 激活函数
2022-02-14 17:03:45

我正在做一个初学者的 TensorFlow 课程,我们得到了一个关于预测 MNIST 数据集(手写数字)的小型项目,我们必须完成代码,以便我们在更少的时间内获得 99% 的准确率(以 0.01 损失衡量)超过 10 个 epoch。原则上我得到了准确性,但损失仅在第 10 个时期达到 <0.01(因此分配被视为失败)。根据说明,我不允许更改 model.compile 参数,因此我决定可以尝试使用给定的代码将激活函数更改为泄漏的 relu。它并不像看起来那么简单,我在网上找到的所有东西似乎都不起作用。大多数建议都采用 model.add() 格式,我不知道如何在他们提供给我们的代码中合并/替换,而无需对其进行太多更改(一切都失败了)。

模型 = tf.keras.models.Sequential([ keras.layers.Flatten(input_shape=(28,28)), keras.layers.Dense(128,activation=tf.nn.relu), keras.layers.Dense(10 ,激活=tf.nn.softmax) ])

任何帮助,将不胜感激!

1个回答

试试这个,然后调整 alpha。

model = tf.keras.models.Sequential([ 
    keras.layers.Flatten(input_shape=(28,28)), 
    keras.layers.Dense(128,activation=tf.keras.layers.LeakyReLU(alpha=0.3)),
    keras.layers.Dense(10,activation=tf.nn.softmax)
 ])