我知道贝叶斯方法和频率论方法在概率的定义上有所不同。
实际上,在机器学习中,模型是具有可调参数的公式。
那么贝叶斯和常客的区别是:
假设参数在常客设置中是固定数字,并且参数在贝叶斯设置中具有自己的分布。
我在这里遗漏了什么或者有什么被误解了吗?
我不是在问理论论点,而是频率论与贝叶斯 wrt 机器学习模型及其优化/拟合的实际表现。
我知道贝叶斯方法和频率论方法在概率的定义上有所不同。
实际上,在机器学习中,模型是具有可调参数的公式。
那么贝叶斯和常客的区别是:
假设参数在常客设置中是固定数字,并且参数在贝叶斯设置中具有自己的分布。
我在这里遗漏了什么或者有什么被误解了吗?
我不是在问理论论点,而是频率论与贝叶斯 wrt 机器学习模型及其优化/拟合的实际表现。
一旦你安装了模型,它就会是它的样子,所以我认为差异在此之前。也就是说,贝叶斯方法和频率方法之间的模型/参数拟合不同。更具体地说,拟合的贝叶斯参数将包含数据之外的其他信息。如果您知道参数可能是什么(并且您没有错),那可能会提高模型的性能。即使您事先使用“无信息”,您通常会发现拟合的贝叶斯参数会在某种程度上缩小到相对于拟合的Frequentist参数。