让我们考虑这个例子:
今天是约翰的生日,我们给他买一个风筝吧。
如果被问到为什么要买它,我们人类很可能会说风筝是生日礼物;我们将这种推理称为常识。
为什么我们在人工智能代理中需要这个?我认为这可能会导致很多问题,因为我们的很多人为错误都是由这些模糊的假设造成的。
想象一个人工智能忽略做某些事情,因为它假设它已经由其他人(或另一个人工智能)完成,使用它的常识。
这不会将人为错误带入人工智能系统吗?
让我们考虑这个例子:
今天是约翰的生日,我们给他买一个风筝吧。
如果被问到为什么要买它,我们人类很可能会说风筝是生日礼物;我们将这种推理称为常识。
为什么我们在人工智能代理中需要这个?我认为这可能会导致很多问题,因为我们的很多人为错误都是由这些模糊的假设造成的。
想象一个人工智能忽略做某些事情,因为它假设它已经由其他人(或另一个人工智能)完成,使用它的常识。
这不会将人为错误带入人工智能系统吗?
常识知识是每个人在特定情境中(因此常识知识可能是情境的函数)认为理所当然的前提的集合。如果人工智能没有常识知识,人类和人工智能之间就会存在很多误解。因此,常识知识是人机交互的基础。
还有一些前提,每个人都认为是理所当然的,而不受国家、文化或一般情况下的影响。例如,每个人(几乎从出生起)都有一种推理幼稚物理学的机制,例如空间、时间和物理相互作用。如果人工智能不具备这些知识,那么它就无法执行需要这些知识的任务。
任何需要机器具备(普通人的)常识知识的任务都被认为是AI 完备的,也就是说,它需要人类水平(或一般)的智能。请参阅Roman V. Yampolskiy的AI-Complete、AI-Hard 或 AI-Easy – 人工智能中的问题分类(2012) 的D 部分。
当然,人类在交流时由于不同的假设或前提而出现的问题也可能出现在人类和人工智能(具有常识性知识)之间。
如果我们想让计算机理解人类语言,我们就需要这种常识知识。计算机程序很容易分析你给出的例子的语法结构,但为了理解它的含义,我们需要知道可能的上下文,这就是你在这里所说的“常识”。
Roger Schank等人强调了这一点。他在计算机理解故事方面的工作,并引发了对知识表示、脚本、计划、目标的大量研究。Schank 的一个例子是玛丽饿了。她拿起了一份米其林指南。——这似乎不合逻辑:如果你饿了,为什么要拿起书?直到你意识到这是一个餐厅指南,而玛丽大概打算去餐厅吃饭。如果您知道去餐馆是解决饥饿问题的潜在解决方案,那么您就可以理解这个故事片段。
任何故事都需要常识才能被理解,因为没有一个故事是完全明确的。常见的事情是“理解的”并且没有明确提及。故事与人类经验有关,一个让一切都变得明确的故事可能读起来就像一个计算机程序。您还需要常识来了解故事中人物的行为方式,以及他们如何受到正在发生的事情的影响。同样,这是非常主观的,但这是必要的。一些常识可能普遍适用,但其他方面则不适用。这是一个复杂的问题,这就是为什么研究人员在至少半个世纪的人工智能研究中一直在努力解决这个问题。
当然,这会将“人为错误”引入人工智能系统。所有这些都是非常主观的和特定于文化的。去美国的餐馆和去法国的餐馆是不同的——这就是为什么出国可能是一个挑战。我读的故事可能和你的不一样。但是,如果您想模拟人类智能,那么如果没有潜在的人类“错误”,您就无法做到这一点。
我将分几个部分回答这个问题:
为什么 AGI 系统需要有常识?
人类在狂野的理性和交流中更多地使用常识而不是严格的逻辑,您可以通过注意到吸引某人的情感比逻辑更容易看到这一点。因此,任何试图复制人类认知的系统(如在 AGI 中)也应该复制这种使用常识的倾向。
更简单地说,我们希望我们的 AGI 系统可以用常识语言与我们交谈,因为那是我们最了解的(否则我们不会理解我们友好的 AGI 会不会?)。迟钝的理论和严格的逻辑在技术上可能是正确的,但并不符合我们的理解。
AGI 的目标不就是创造最先进的认知系统吗?为什么“最完美”的 AGI 系统需要处理这些常识中存在的不完美和不精确?
首先,常识逻辑似乎只是“非理性”的情况。也许有一种一致的数学方法可以对常识进行建模,以便常识的所有微妙之处都以严格的方式表示。
其次,人工智能的早期研究始于认知科学研究,研究人员试图复制“思维算法”,或者更准确地说:复制人类思维的可判定程序。到那时,人工智能的研究并不是要创造“最高的认知代理”,而只是复制人类的思想/行为。一旦我们可以复制人类行为,我们也许可以通过赋予它更多的计算能力来尝试创造超人类的东西,但这并不能保证。
我仍然不明白为什么 AGI 系统需要常识。AGI 不是要成为最智能、最强大的计算系统吗?它为什么要关心或符合人类理解的极限,这需要常识?
也许那时您对 AGI 的含义有一点误解。AGI 并不意味着无限的计算能力(由于计算的物理限制,例如Bremermann 的限制,在物理上是不可能的)或无限的智能(可能由于先前的限制而在物理上是不可能的)。它通常只是表示人工的“通用智能”,通用的意思是广泛而普遍的。
在理论计算机科学(我相信类型理论)、决策理论,甚至可能是集合论等领域,我们对无界代理的考虑进行了更详细的研究,在这些领域我们能够提出关于具有无限计算能力的代理的问题。我们可能会说,由于停机问题,即使是具有无限能力的 AGI 系统也无法回答某些问题,但前提是这些字段的假设映射到给定 AGI 的结构上,这可能不正确。
为了更好地理解 AGI 可能包含的内容及其目标,我可能会推荐两本书:John Haugeland 的《人工智能:非常想法》,以获得更实用的方法(尽可能实用的 AI 哲学,以及《物体的起源》) Brian Cantwell Smith 提出了一种更具哲学倾向的方法。
有趣的是,Zen koan 的合集:The Gateless Gate,包括以下段落:(引用并编辑自维基百科)
一位僧人问中国禅师赵州:“狗有没有佛性?” 赵州答:“吴”
Wú(无)翻译为“none”、“nonesuch”或“nothing”,可以解释为避免回答是或否。这个开明的人并不寻求严格回答每个问题,而只是以一种有意义的方式做出回应。狗有没有佛性(无论佛性是什么意思)都无所谓,所以主人默认是解决问题而不是解决问题。
举一个没有常识的地方可能会出错的例子可能会有所帮助:在詹姆斯·霍根(James Hogan)的小说“明天的两张脸”的开头,月球上的建筑主管向自动化系统提出了一个请求,询问特大件的施工设备尽快送到他的工地。系统回复说二十分钟后到。20 分钟后,主管因设备坠入他的建筑工地而丧生。系统确定将设备运送到该站点的最快方法是将其安装在质量驱动器上并在该站点发射。如果有问题的系统被赋予了常识,它会推断出对查询的额外未说明的约束,例如“设备应该完好无损地到达”、“ 设备到货不应造成损坏或生命损失”等。(小说的其余部分描述了一个旨在产生具有常识的新系统的实验)