概率模型在人工智能中是死胡同吗?

人工智能 敏捷 可能性
2021-11-07 03:58:24

我坚信马文·明斯基关于通用人工智能 (AGI) 的想法,他的一个想法是概率模型在 AGI 领域是死胡同。

我真的很想知道那些不相信的人的想法和想法。

2个回答

在考虑 AGI 的有效方法时,必须向外推断为实现任何通用效用所必需的建模类型(以及输入)。一个考虑因素可能是我们物理世界的基本“构建块”,了解它们的运动,可以导致对(所有)事件的准确预测。这些基本元素(通常)被称为亚原子粒子,它们绝不是离散值。在量子场论中,您能够测量的位置越准确,您对夸克动量的了解就越不准确(反之亦然)。在最基本的层面上,我们的世界在观察时是概率性的。这并不是说理解量子力学运动学描述是实现真正 AGI 的唯一方法,

也就是说,明斯基博士并没有真正觉得概率模型是死胡同。该领域的新兴观点,明斯基博士多年来一直敦促的观点是,由于其统一的结构,单独的联结主义并不能完全导致 AGI。如果您不知道,联结主义是围绕离散的表示单元(例如神经网络中的神经元)创建模型的概念。你看我们发现的问题不是概率模型不准确,而是我们当前的方法没有表达 AGI 所需的生物现实主义(尽管对于特定的智能来说已经足够了)。

[在去年去世之前,我曾在 AI 实验室与 Minsky 博士短暂合作过,他是一个搞笑的人,也是一位才华横溢的科学家。]

我认为 Minsky 反对概率模型可以替代智能组件模型的建议,他认为智能组件模型基于相互作用的原则和过程(即心理社会)。但我不相信他曾将概率模型称为死胡同。所有情报模型都必须采用对可能性和例外的认识。许多概率技术,如贝叶斯推理和马尔可夫链,可能对任何 AGI 的最终机制都至关重要。

然而,我同意你的观点,Minsky 对使用像神经网络这样的技术设计 AGI 系统的前景不满意,因为 1) 仅由有监督的训练示例形成,2) 无法解释其推理或直接有效地对其进行修改。这些方法(无实体的概率)不模拟思维,而只是思维的结果。这类似于不理解问题但无论如何都正确猜测,这当然很有用,但对于像明斯基这样想要了解思维过程的人来说,这也很无趣,而不仅仅是构建一个 Magic 8 Ball。

Minsky 将如何应对深度网络的最新进展,如变分自动编码器或对抗网络或网络的复合层次结构或实现广泛技能的端到端网络?假设他们可以扩大规模以成功实施 AGI,我相信他会对他们不满意。想到他的心智社会对我来说只不过是一个由十种(?)种深度网络组成的社会,这些网络在概率上匹配模式并以组合方式相互作用——我认为这对于一个一生都在想象和精炼公理、理论和认知证明,却发现爱因斯坦和贝多芬的精致头脑可能只不过是高度适应死记硬背变化的反应性引擎。