假设您正在对观察结果进行一些在线贝叶斯推理。您想用模型 mu , \sigma 。
现在,每次你观察到时,你都会用你的新后验更新你的先验并得到一个新的估计。这成为您下一次观察的先验,等等。
现在经过次观察,您的估计来自将“递归”贝叶斯应用于您的先验,其中:
现在是否可以让您的贝叶斯模型“忘记”旧点而无需重新计算整个链?换句话说,如果你想将此模型应用于数据流(因为你有很多点),你能让它忘记旧点吗?
我希望我的问题足够清楚,如果需要,我会在评论出现时进行编辑。非常感谢
假设您正在对观察结果进行一些在线贝叶斯推理。您想用模型 mu , \sigma 。
现在,每次你观察到时,你都会用你的新后验更新你的先验并得到一个新的估计。这成为您下一次观察的先验,等等。
现在经过次观察,您的估计来自将“递归”贝叶斯应用于您的先验,其中:
现在是否可以让您的贝叶斯模型“忘记”旧点而无需重新计算整个链?换句话说,如果你想将此模型应用于数据流(因为你有很多点),你能让它忘记旧点吗?
我希望我的问题足够清楚,如果需要,我会在评论出现时进行编辑。非常感谢
您可以通过除法或减法从可能性或对数似然中删除他们的贡献,当它们首先被乘以或添加时完全反转他们的贡献。
这就像说“我做了一个很长的乘法:。我有答案,但我想计算它,好像4个都不在,有办法吗? ”
(是的,只需除以 4。现在将视为您的先验,将数字视为观察对可能性的贡献。您需要执行相当于“除以 4”的操作)
这很容易让我担心,以至于我错过了一些明显的东西。除了“除以它对可能性的贡献”之外,我看不出有什么方法可以从中得出可行的答案。
但这里有一些比显而易见的更值得回答的事情:在某些情况下,您可能需要考虑累积数值误差。如果您对浮点项进行多次乘除或加减运算(例如超过一百万个观测值,而您只保留最后五百个观测值),最终您的计算可能会积累足够的数值“绒毛”让它值得从头开始定期重做。