杰恩斯一种pAp分配

机器算法验证 可能性 贝叶斯 贝塔分布
2022-01-29 06:16:48

在杰恩斯的《概率论:科学的逻辑》一书中,杰恩斯有一章(第 18 章)题为“The Logic of Science”。Ap分配和继承规则”,他在其中介绍了Ap分布,这篇文章有助于说明:

[...] 要看到这一点,想象一下获取新信息的效果。假设我们抛硬币五次,每次都出现反面。你问我下一次投掷正面朝上的概率是多少?我还是会说1/2。但是如果你再告诉我一个关于火星的事实,我已经准备好彻底改变我的概率分配[火星上曾经有生命]。有一些东西使我的信念状态在便士的情况下非常稳定,但在火星的情况下却非常不稳定

这似乎是对作为逻辑的概率论的致命反对。也许我们需要与一个命题相关联的不仅仅是一个代表合理性的数字,而是两个数字:一个代表合理性,另一个代表它在面对新证据时的稳定性。因此,需要一种二值理论。[...]

他接着介绍了一个新的主张Ap这样

P(A|ApE)p

“在哪里E是任何额外的证据。如果我们必须渲染Ap作为口头陈述,它会是这样的:Ap 无论您可能被告知其他任何事情,发生的概率 Ap。”

我试图通过仅使用满足这些标准的 Beta 分布来了解两个数字的想法(“合理性,以及另一个在面对新证据时它有多稳定”)之间的区别。

图 18.2 与使用非常相似α=β=100(比如说),而对于火星来说它可能是 Beta(1/2,1/2) 并且信念状态“非常不稳定”

在此处输入图像描述

原本的Ap上面的命题可能是 Beta(α,β) 对于非常大的α,β这样α/(α+β)=p. 那么再多的证据也不会改变分布pP(A|ApE)p

整本书都讨论了 Beta 分布,所以我是否遗漏了一些东西,这里的区别是微妙的,需要一个新的理论(Ap分配)?他确实在下一段中提到“似乎我们在谈论'概率的概率'。”

1个回答

的主要观点Ap理论是描述给定模型的累积知识如何改变新观察的概率分布。

从完全无知模型开始,一致的观察增加了信念的强度(窄方差(Ap|E)),而无知或不一致会产生更大的信念不稳定性(更大的方差(Ap|E).

通过介绍Ap,杰斯:

  1. 表明“大脑”只需要存储(Ap|E)做出未来的预测
  2. 给出了归纳推理的模型
  3. 强调了拉普拉斯继承规则的重要性

杰恩斯认为,Ap密度是描述人类大脑如何将先前的经验总结为模型(内部机器人)的核心思想。内部机器人不断编码经验更新Ap并将其组合成复杂的形式可以成为创造力的基础(第 18.4 章)。

在实践中,就像你说的那样。之间的区别Ap对于硬币和火星的例子是由参数捕获的Beta分布,但这个概念比这更深。