当前的 AI 模型是否足以实现通用人工智能?

人工智能 机器学习 强化学习 敏捷 人工创意
2021-11-05 12:09:55

我读了一篇关于我们离 AGI 有多远的有趣文章。有很多扎实的观点让我今天重新审视了人工智能的基础。出现了一些有趣的概念:

想象一下,你需要一个功能更雄心勃勃的程序:解决理论物理学中的一些突出问题——比如暗物质的性质——用一种新的解释,该解释是合理和严格的,足以满足在学术期刊上发表的标准。

这样的程序可能是 AGI(然后是一些)。但是你会如何将它的任务指定给计算机程序员呢?别介意它比温度转换更复杂:还有一个更根本的困难。假设你以某种方式给他们一份清单,就像温度转换程序一样,对暗物质的解释是该程序可接受的输出。如果程序稍后确实输出了这些解释之一,那将不符合您生成新解释的要求。因为这些解释都不是新的:为了编写规范,您已经自己创建了它们。因此,在这种情况下,实际上在编写真正 AGI 的所有其他情况下,只有具有正确功能的算法就足够了。

在接近真正的 AGI 时,创造力的概念似乎是首先要解决的问题。人类必须提出最初的问题或对暗物质等长期问题产生新的激进想法的相同类型的创造力。

目前有这方面的研究吗?

我见过创作艺术和音乐的工作,但这似乎是一种不同的方法。

在经典的“缸中大脑”思想实验中,大脑在暂时脱离其输入和输出通道时,会思考、感受、创造解释——它具有 AGI 的所有认知属性。因此,AGI 程序的相关属性不仅仅包括其输入和输出之间的关系。

这是为什么强化学习不是答案的一个有趣概念。如果没有来自环境的输入,代理就没有什么可以改进的了。但是,对于实际的大脑,如果你没有输入或输出,它仍然处于“思考”的状态。

2个回答

任务规范

有人提出,新颖性搜索可以规避这个问题。请参阅:放弃目标:仅通过寻找新奇而进化在这个模型中,代理没有目标或目的,只是把数据弄乱,看看有什么结果。(这可以被视为寻找/形成模式。这是最近关于该主题的热门文章:计算机进化出一条通往人类智能的新路径)。

程序生成的一种形式也可能是有用的,特别是创建新模型/环境和流程/算法来分析它们的能力。(参见:AI-GAs:AI 生成算法)。

就程序员向 AGI 传达任务而言,如果任务与普通的人类活动或艺术和工艺有关,那就是自然语言问题;如果主题是物理,那就是数学问题。(在前一种情况下,人类正在用自然语言描述问题,而在后者中,可能会将所有暗示暗物质的数据输入算法。自然语言对计算机具有挑战性,但数学和逻辑是其中之一它们的两个核心功能。)

回复:暗物质,可能是要求算法在数据中找到模式,并根据数据建立模型。模式和模型将是人类可以考虑的输出。输出将是数学的。

(将数学输出转换为隐喻,就像在 Nova 和 Cosmos 等科学项目中常见的那样,将是 AGI 的另一个目标。)

盒子里的大脑

需要有刺激/输入来启动“思考”过程/计算。在盒子里的大脑中,大脑正在提供它自己的内部刺激。我认为参与自我游戏的 RL 算法不依赖于外部刺激,而是内部生成的输入,因此基于模型的强化学习过程通常是一个盒子里的大脑,考虑一个主题或问题。

我专注于您在此处发布的内容,而没有阅读(或阅读)您链接的整篇文章:

在经典的“缸中大脑”思想实验中,大脑在暂时脱离其输入和输出通道时,会思考、感受、创造解释——它具有 AGI 的所有认知属性。因此,AGI 程序的相关属性不仅仅包括其输入和输出之间的关系。

大桶实验中的经典大脑不会断开大脑与所有输入和输出的连接,而是用“假”连接代替与其环境的“真实”连接,例如将大脑连接到计算机。这就是维基百科所说的

在哲学中,缸中的大脑(BIV;也称为罐中的大脑)是一种用于各种思想实验的场景,旨在引出人类对知识、现实、真理、思想、意识和意识等概念的某些特征。意义。它是由吉尔伯特·哈曼发起的勒内·笛卡尔的邪魔思想实验的更新版本。1与许多科幻小说一样,它概述了一个场景,其中一个疯狂的科学家、机器或其他实体可能将一个人的大脑从身体中取出,将其悬浮在一桶维持生命的液体中,并通过电线将其神经元连接到一台超级计算机,可为它提供与大脑正常接收的电脉冲相同的电脉冲。2根据这些故事,然后计算机将模拟现实(包括对大脑自身输出的适当反应),“脱离实体”的大脑将继续拥有完全正常的意识体验,例如具有实体大脑的人的意识体验,而这些体验与物体或现实世界中的事件。

此后,作者在大缸情景中提到大脑的论点不成立。

如果你暂时忽略这个问题,就会出现下一个矛盾:作者假设因为大脑会“某某”行为,AGI 也需要“某某”行为。然而,这与通常定义人工智能的方式不一致。即使您考虑广泛的定义:

定义 AI 的示例

(来源:“人工智能:一种现代方法”;Russel,Norvig,第 3 版,2010 年)

这些定义都没有直接将人工智能与大脑联系起来。因此,如果没有进一步的假设,AGI(作为 AI 的一个子集)需要像缸中的大脑一样工作的假设通常是有缺陷的。

作者论证的另一个问题在于:

解决理论物理学中的一些突出问题——比如暗物质的性质——用一种新的解释,这种解释是合理和严格的,足以满足在学术期刊上发表的标准。

这样的程序可能是 AGI(然后是一些)。

“创造力”(在引号中,因为我们实际上首先需要精确定义它)需要 AGI 的假设也不成立。让我们继续使用与暗物质相关的作者示例:

  1. 根据定义,这是人工智能应用的一个专门领域。因此,不一定需要 AGI,因为“专业化”正是 AGI所没有的。
  2. 此外,你可以提出一个论点,即提出与暗物质相关的新解释在某种程度上与自动定理证明有关。因此,我们可能已经拥有人工智能,它在原则上能够“解决”今天的这项任务。