ML/DL 领域的局外人;开始了基于 TensorFlow 的 Udacity 深度学习课程;做作业 3 问题 4;尝试使用以下配置调整学习率:
- 批量大小 128
- 步数:足以填满 2 个 epoch
- 隐藏层大小:1024、305、75
- 权重初始化:用标准截断正常。sqrt(2/n) 的偏差,其中 n 是前一层的大小
- 辍学保持概率:0.75
- 正则化:未应用
- 学习率算法:指数衰减
玩弄学习率参数;在大多数情况下,它们似乎没有效果;代码在这里;结果:
Accuracy learning_rate decay_steps decay_rate staircase
93.7 .1 3000 .96 True
94.0 .3 3000 .86 False
94.0 .3 3000 .96 False
94.0 .3 3000 .96 True
94.0 .5 3000 .96 True
- 我应该如何系统地调整学习率?
- 学习率与步数有什么关系?