我有一个回归 GAM(通用加法模型),我想了解它的认知不确定性(作为我输入函数的残差或预测的方差)。
我已经使用贝叶斯方法将我的 GAM 转换为高斯过程,因此我可以构建协方差矩阵,但由于我的问题的高维,这种方法不可扩展。
我正在尝试使用一种将当前模型用作黑盒并仅观察输入和残差的方法,我发现最接近的是分位数回归,但我想知道是否有任何深度学习方法可以学习方差从输入。
我发现的大多数深度学习方法同时估计均值和方差(深贝叶斯、MVE、MC dropout ...)
我目前正在实施的一种天真的方法是一种神经网络,它通过最小化作为居中高斯的残差的可能性来学习作为输入函数的方差,但我没有找到任何关于这种方法的论文或资源。
您对这个问题有任何想法,任何可能的资源或对我目前的方法有意见吗?
谢谢
学习机器学习算法的不确定性
数据挖掘
Python
深度学习
贝叶斯网络
2022-02-26 15:10:33
1个回答