我使用贝叶斯超参数 (HP) 优化方法 ( BOHB ) 来调整深度学习模型。然而,当重复应用于相同的数据时,生成的模型并不稳健。我知道,我可以使用种子来修复参数初始化,但我想知道是否有 HP 优化方法已经考虑了稳健性。
为了说明这个问题,让我们考虑一个只有一个 HP 的单层神经网络:隐藏大小 ( h )。该模型在h较小的情况下表现良好。随着更大的h,结果开始波动更大,可能是由于更复杂的损失情况;参数的随机初始化可能会导致良好的性能,或者如果优化器陷入局部最小值(由于复杂的损失情况而更频繁地发生),则会导致非常糟糕的性能。损失与h图可能如下所示:
我更喜欢“稳健解决方案”,而“最佳解决方案”由 HP 优化器算法选择。是否有 HP 优化算法可以解释稳健性?或者你会如何处理这个问题?