从 Yarin Gal 关于使用 Dropout 作为贝叶斯近似的研究论文(https://arxiv.org/pdf/1506.02142.pdf)开始,我试图将这个概念应用于我的序列预测模型。我的模型由 2 个 LSTM 层组成,然后是一个 relu 密集层,然后是一个 softmax 层。在每一层之后添加一个 dropout 层。
我找到了一些测量深度神经网络不确定性的实现(就像这里的这个:https ://fairyonice.github.io/Measure-the-uncertainty-in-deep-learning-models-using-dropout.html ),但它们似乎都适用于密集层而不是 LSTM 层。
总而言之,我要问的是:
- 如何在 LSTM 层测试期间打开 Dropout?
- 如何测量模型的不确定性?