我最近在 dlib 博客上阅读了 LIPO 博客文章: http ://blog.dlib.net/2017/12/a-global-optimization-algorithm-worth.html
它提到它可以用于优化超参数,例如模拟退火或遗传算法等元启发式算法。
我查找了有关优化超参数一般如何工作的信息,维基百科页面是我发现的信息量最大的页面,但它没有回答我的基本问题: https ://en.m.wikipedia.org/wiki/Hyperparameter_optimization
我的问题只是:优化超参数的基本思想是什么?
如果我有一些我试图通过模拟退火解决的问题,我知道起始温度和冷却速率对于确定算法在找到解决方案方面的表现非常重要。
我知道我可以用一组参数完全运行算法,修改其中一个参数,再次完全运行,然后重置参数并修改另一个参数并再次运行。这可以给我一个数值梯度,我可以用它通过梯度下降来修改参数。
然而......此时我不得不运行整个算法 3 次,只是为了对超参数进行一次修改。
我觉得我必须遗漏一些明显的东西,因为优化超参数将花费数百或数千倍或更多的成本运行整个事情一次,这似乎根本没有用。有人可以给我线索吗?