人工智能在数学方面有多好?

人工智能 深度学习 数学 敏捷 应用 最先进的
2021-10-27 09:08:07

目前,人工智能在深度学习方面发展迅速:DeepMind的AlphaZero在四个小时内学习并超越了人类的全部国际象棋知识

作为一个外行,我认为这是一个非常强大的搜索算法,使用人工神经网络来识别每个游戏的模式。

然而,人工智能在数学上的表现如何?

例如,Nim游戏理论的关键是堆大小的二进制数字和,即忽略从一个数字到另一个数字的所有进位的和(二进制)。此操作也称为“异或”(xor)或“GF(2) 上的向量加法”。

人工智能是否足以发现/邀请诸如“异或”之类的操作/逻辑,或者更高级的有限域中的抽象代数?

2个回答

Nim 实际上是最早由电子机器玩的游戏之一。它被称为 Nimatron,并在 1940 年纽约世界博览会上展出。

众所周知,如果神经网络有足够的层数,它们就可以对 Xor 函数进行建模。尽管如此,Marvin Minsky 应该在 60 年代通过断言具有单个隐藏层的网络无法对 XOR 建模来杀死神经网络。

我认为还有一些大型项目可以使用计算机对有限群进行分类。

此外,长期以来一直有自动化的定理证明程序,在数理逻辑方面取得了一些成功。我最近看到一篇论文使用深度学习来改进其中一个定理证明器。

话虽如此,做真正的数学可能和真正的语言理解一样困难。似乎还没有真正的突破。

早在 1990 年代初期,网络是否可以被训练来接管越来越多的完全属于生产系统领域的东西的问题(令那些在 LISP 社区从事一阶谓词微积分推理工作的人感到沮丧) .

执行逻辑推理的人工网络

在斯坦福大学语言学系,Samuel R. Bowman、Christopher Potts 和 Christopher D. Manning在Recursive Neural Networks Can Learn Logical Semantics中演示并记录了通过人工网络组装语义图所需的逻辑学习。

即使是最早的人工网络工作也针对学习逻辑,例如难以捉摸的异或运算,这是通过在原始感知器设计中添加第二层并应用我们现在所说的梯度下降来实现的。

不同于自动定理证明

大多数关于定理计算机证明的早期工作都是基于生产系统方法(有时称为专家系统)。这些是基于规则的系统,而不是人工网络。人们认为,谓词逻辑的规则可以通过以适当的顺序模式匹配先行词(可以应用基于公理信息和已经证明的理论的数学技术的条件)以适当的顺序执行。使用启发式元规则取得了一些成功。

使用人工网络来证明定理是一种完全不同的方法。为了进一步进行语义学习,以便人工网络可以学习如何组装数学证明,需要在网络学习模型中进一步抽象三个层次。

  • 学习已知的一阶谓词逻辑推理规则
  • 学习将这些规则应用于提出的定理的机制
  • 学习功能启发式以知道首先尝试什么

可以做到的证据

可以开发可以学习构建数学证明的人工网络的证据并不是当前的人工网络可以执行某些自然语言功能或创造性地开发旋律或某些室内设计。DARPA 传统上投资于模拟逻辑方向的神经网络研究的原因是 Minsky 提出的概念证明。

神经网络可以潜在地学习上面列出的各个抽象层以实际进行数学运算的最有力证据是,人类儿童无法证明一个定理,甚至无法大声朗读一个定理,但有些人可能会长大后精通定理证明。大脑的生物神经网络必须学习这种熟练程度。

在撰写本文时,不存在人工网络无法达到高斯或哥德尔水平的反例,因此该想法在逻辑上不能被驳回。许多高级研究项目继续将更高的认知技能作为他们的人工智能目标。

公共访问

由于有关逻辑推理的大部分工作以及是否可以训练人工网络来完成这项工作的调查都是由政府机构资助的,因此某些研究结果可能无法向公众提供。