是否有任何科学/数学论据阻止深度学习产生强大的人工智能?

人工智能 深度学习 敏捷 超级智能
2021-11-04 20:57:25

我读了 Judea Pearl 的The Book of Why,他在书中提到深度学习只是一种美化的曲线拟合技术,不会产生类似人类的智能。

在他的书中,这张图说明了认知能力的三个层次:

认知能力的三个层次

这个想法是,当前深度学习技术产生的“智能”只是在联想层面。因此,人工智能远不及提出诸如“我怎样才能让 Y 发生”(干预)和“如果我采取不同的行动,X 还会发生吗?”等问题的水平。(反事实),曲线拟合技术不太可能使我们更接近更高水平的认知能力。

我发现他的论点在直觉层面上很有说服力,但我找不到任何可以支持或质疑这一论点的物理或数学定律。

那么,是否有任何科学/物理/化学/生物/数学论据阻止深度学习产生强大的人工智能(类人智能)?

2个回答

Judea Pearl 2018 年对 ACM.org 的评论,在他的To, Build True Intelligent Machines, Teach Them Cause and Effect中是刺耳的真理。

深度学习的所有令人印象深刻的成就都只是曲线拟合。

说它不是“只是曲线拟合”,而是“复杂的表面拟合”,可能不那么耸人听闻,而且在技术上更正确。尽管如此,他的总体评估表明,需要超越调整非线性函数来拟合曲面Rn并考虑是否可以通过深度网络实现认知。这个问题的答案分歧很奇怪。我们有两个相互矛盾的断言,经常被强烈声明。

  1. 人工网络无法执行逻辑。
  2. 人工网络是人工智能的最佳途径。

理性如何被排除在智力的重要人类特征列表之外,这就是这两个断言结合在一起的含义?

人脑是复杂的曲线拟合网络吗?马文·明斯基(Marvin Minsky)的名言“大脑恰好是一台肉类机器”在没有证据的情况下被提供,此后既没有提供他对人脑微不足道的证据,也没有提供大脑超出图灵可计算能力范围的证据。

当您阅读这些文字时,您的神经网络是否在执行以下曲线拟合序列?

  • 视网膜视杆和视锥的边缘
  • 边缘线
  • 线条的形状
  • 形状字母
  • 来自字母组的语言元素
  • 来自元素的语言结构
  • 从语言结构理解

案例有力地肯定了前五个是模型上的收敛机制,所有机器学习结构只是一种将数据拟合到模型的方法。

最后两个项目是范式崩溃的地方,也是许多 AI 研究人员和作者正确地指出,机器学习在仅基于多层感知器和卷积核层时有很大的局限性。此外,最后一个项目符号在其当前状态下被严重过度简化,可能是数量级。即使明斯基认为计算机可以执行大脑所做的事情是正确的,阅读和理解这一段的过程也很容易在具有大量并行性的内部工作流模式中拥有一千种不同的独特过程组件。成像技术表明了这种可能性。我们的计算机只对最简单的外围层进行建模。

是否有任何科学/数学论据阻止深度学习产生强大的人工智能?——不。但也没有这样的论据可以保证这一点。

这里的其他问题调查​​这些复杂的曲线拟合器是否可以执行认知或推理元素。

问题形象中的三个图腾,看、做和想象,并不是特别完整、准确或有见地。

  • 人类至少有五种感觉范式,不是一种
  • 做事比人类的感觉早了数十亿年——细菌做
  • 想象的过程并不比从过去经验的模型中通过某种方法应用集合函数来组合它们并注入随机突变的场景回放高得多的过程
  • 创意可能只是在前一个项目中的想象,然后用一些以市场为导向的质量标准淘汰无用的想象结果,留下令人印象深刻的创意产品。

更高的形式是欣赏,一种超越科学测量范围的现实感,合理的怀疑,爱,为他人或人类的利益而牺牲。

许多人认识到,人工智能技术的当前状态还远没有采购一个能够可靠回答“我怎样才能让 Y 发生?”的系统。或“如果我采取不同的行动,X 还会发生吗?”

没有数学证据表明小曲线拟合元素的某些组合能够或不能像典型人类那样实现回答这些问题的能力,主要是因为对什么是智能或如何用数学术语定义智能的理解不足。

也有可能根本不存在人类智能,对它的引用是基于一种宗教信仰,即我们作为一个物种比其他物种更高。我们可以填充、消费和消灭实际上并不是一个非常聪明的智能概念。

人类智能是一种将我们与其他哺乳动物区分开来的适应的说法与我们是否适应良好相矛盾。我们还没有经过测试。下一个流星全球杀手,其冲击波与希克苏鲁伯陨石坑的流星一样大,随后是几千年的太阳冬天,我们将看看它是我们 16 万年的存在还是细菌 40 亿年的存在这证明更可持续。在生命的时间轴上,人类智力尚未证明其作为一种适应性特征具有重要意义。

人工智能发展很清楚的是,其他类型的系统与基于多层感知器概念和严格表面拟合器的卷积核的深度学习器一起发挥作用。

Q-learning 组件、基于注意力的组件和长短期记忆组件也都是严格的表面拟合器,但只是通过显着扩展表面拟合的定义。它们具有实时自适应特性和状态,因此它们可以是图灵完备的。

模糊逻辑容器、基于规则的系统、具有马尔可夫属性的算法以及许多其他组件类型也发挥着它们的作用,它们根本不是表面拟合者。

总而言之,有些观点的基础不仅仅是合理性或令人愉悦的直觉质量,然而,这些作者中的许多人并没有提供一个包含定义、应用、引理、定理、证明甚至思想实验的数学框架,以正式的方式进行审查。

这是一个悖论,但深度学习机器(定义为 NeuralNet 变体)无法学习任何东西。它是一种灵活且可配置的硬件/软件架构,可以通过参数化解决很多问题。但是解决问题的最优参数是通过外部系统获得的,即反向传播算法。

反向传播子系统使用传统的编程范式,它不是神经网络。这一事实与人类思维完全相反,在人类思维中,知识的学习和使用是由同一个系统(思维)完成的。

如果所有真正有趣的事情都在 NN 之外完成,那么很难声称 NN(任何变体)可以在 AGI 中发展。

也可以找到更多的差异。神经网络在其界面和内部结构中具有很强的数值性。从这个角度来看,它们是支持向量机的演变。

太多的差异和限制不能期待 AGI。

注意:我强烈不同意原始问题中包含的平局。“看”、“做”、“想”是绝对错误的层次。它从基本和常见的软件概念中忽略了“抽象”或“程序状态”(用图灵的话来说);应用人工智能作为“预见”;和 AGI 的“自由意志”,“目标和感觉”,......