我正在做一个初学者的 TensorFlow 课程,我们得到了一个关于预测 MNIST 数据集(手写数字)的小型项目,我们必须完成代码,以便我们在更少的时间内获得 99% 的准确率(以 0.01 损失衡量)超过 10 个 epoch。原则上我得到了准确性,但损失仅在第 10 个时期达到 <0.01(因此分配被视为失败)。根据说明,我不允许更改 model.compile 参数,因此我决定可以尝试使用给定的代码将激活函数更改为泄漏的 relu。它并不像看起来那么简单,我在网上找到的所有东西似乎都不起作用。大多数建议都采用 model.add() 格式,我不知道如何在他们提供给我们的代码中合并/替换,而无需对其进行太多更改(一切都失败了)。
模型 = tf.keras.models.Sequential([ keras.layers.Flatten(input_shape=(28,28)), keras.layers.Dense(128,activation=tf.nn.relu), keras.layers.Dense(10 ,激活=tf.nn.softmax) ])
任何帮助,将不胜感激!