人工智能不能简单地归结为设计二进制或其他算法,仅仅因为生物系统中智能的展示早于算法计算的发明。由此,我们可以进一步得出结论,算法不是表现出我们认为智能的行为的系统的必要组成部分。
根据 John von Neumann 的建议,决定通过将所有计算委托给单个二进制中央处理器来提高计算机的可靠性。这种选择和它所基于的先前工作(香农、丘奇和图灵)导致了算法规范在计算机语言中的卓越地位。奠定了用算法术语表达功能设计的基础,软件产业诞生了。
从那时起,研究出现了一种平行的趋势,即回归计算机的生物学灵感,更具体地说,是并行处理。我们在几个层面上看到了这一点。
- 浮点运算、视频渲染和机器学习瓶颈转移到专用 VLSI 硬件加速
- 多核 VLSI 处理器
- 计算集群和处理框架、容器和环境,它们公开接口,编译器和内核程序员可以通过这些接口显式或隐式控制并行机器
- 多个线程和进程委托给计算集群中的多个核心、代理或主机
- 复杂的 VLSI 级缓存可最大限度地提高并行操作的效率
- 支持向多处理环境部署趋势的语言和编译器功能,例如大数据平台的声明性语言(例如 ECL)
- 开发 AI 芯片设计,在某些方面将计算范式完全或部分转移到 CPU 出现之前,返回到相当大的并行性并脱离集中处理(但利用计算机视觉、认知科学、逆向工程等方面的经验教训)脑遗传学、心理信号追踪、梯度下降与反向传播的使用、强化设计和应用机器人)——这可能是 2020 年代的主要研究方向。
一些人认为,哥德尔的两个不完备定理的一个含义是,人类的思维不符合图灵定义的计算机标准,但这些主要是切线问题。
确实,证明具有足够分辨率、深度和宽度的 RNN 可以被训练为与 Hava Siegelmann 的任何图灵机等效。的确,她的作品被认为是对马文·明斯基(Marvin Minski)大胆断言人脑是肉机的支持。然而,约翰·卢卡斯和罗杰·彭罗斯的《皇帝的新思想》关于决定论的工作并不是对哥德尔定理中的任何一个的反驳。它们驳斥了一些人认为是哥德尔定理的后果以及明斯基声明的一些含义。
哥德尔在介绍这些定理的论文的前半部分清楚地解释了他的意图,它们与计算无关。他打算并成功地证明了一个具体的数学系统中的定理即使是真的也不一定总是被证明的。哥德尔的工作对证明所有剩余未证实的数学定理的倡议提出了不必要的怀疑。数学家自然倾向于将数学视为完美的人类努力,而真实与可证明之间不一致的合理证明似乎是一种不完美的刺激。
也许对哥德尔不完备性定理最深刻的回应来自艾伦·图灵,他很可能故意在他的定理名称中加上了完备性这个词。但这也不是反驳。他通过定义一类数学运算和有限数据结构来解决不完整性问题,他可以在这些数据结构上进行运算,他可以证明它们是完整的。这样做后,他为算法开发奠定了重要的基础。
尽管如此,对于当今的人工智能研究人员来说,接受不完整性和不一致并意识到人工智能,无论是否人工,在任何有限程度的学习后都可能出错可能是明智的。这很可能是因为无法在有限的时间内为学习系统提供无限范围的问题类型。可能总是存在至少一个当前学习状态无法解决的问题。这种部分知识条件的实用俗语是“我们不知道我们不知道什么”。
此外,哥德尔工作的一个明确含义是,任何类型的智能都无法为某些真实的事情找到证据。同样,我们不能确定最聪明的寻找反例来反驳错误断言的方法可能会永远找到一个反例。PAC 学习框架解决了从数学角度可解决或不可解决且值得研究的问题类别。
最后,但也许最深刻的是,尚不清楚是否存在一种可以学习任何东西的智能,而不是被编程来完成任何事情。换句话说,通用智能可能是一个从未实现但可能接近的理想概念。在一个环境和一个特定时间段内看起来像超级智能的东西在另一种环境或不同时间段内可能完全无效,甚至是反智能和有问题的。
这一点怎么强调都不为过,因为有太多关于人工智能的陈述是以科学的名义发表的,而这些陈述与科学严谨性无关。
尽管如此,即使对人工智能和人类智能都有这些可能的限制,也不能得出结论说人工智能在实时关键应用中无效。也不能得出结论,人工智能在任何特定领域都将不如人类智能有效。
实际上,如果没有正式定义它并在该定义中达成共识,就很难得出任何关于情报的结论,这仍然是我们无法理解的。我们可以看到,在没有这种手续的情况下,邮件行业无法继续对邮件进行自动分拣。汽车行业继续追求比普通人类驾驶员更好的人工驾驶员的发明。游戏行业实施了人工对手,他们必须故意犯错才能让人们在公平、实时的游戏中获胜。
显然,人工智能的发展速度比影响人类大脑的 DNA 成分更快。
与十年前相比,今天的人们不再那么震惊了,即在本世纪的某个时候,在某些司法管辖区驾驶汽车将是非法的,当时人员和财产损失统计数据证明自动驾驶汽车比几乎几乎更安全。所有手动的。人类为驾驶安全设定的标准不是很高,白日梦、发短信、偶尔的疲倦或醉酒会减缓许多街头事件本已不足的反应时间。
如果驾驶计算代理因为确定狗、儿童和老人的轨迹与汽车的轨迹相交而发生恐慌,它可能会在毫秒内解决恐慌并绘制一个安全的路线(可能避免所有这三个或可能牺牲狗来救两个人),而人类只有在击中某个人之后才能解决恐慌。
总而言之,决定人工智能部署的适当平衡或数量的不是绝对可靠,而是将人类表现的分布与类似条件下机器替代品的分布进行比较。