假设我们有一台机器,我们给它一个任务(视觉任务、语言任务、游戏等),如何证明机器实际上知道该特定任务中正在发生/发生的事情?
为了缩小范围,举几个例子:
对话——如何证明一台机器实际上知道它在说什么或理解它在说什么?图灵测试是一个好的开始,但从未真正解决实际的理解问题。
愿景:有人如何证明或测试机器实际上知道它所看到的?物体检测是一个开始,但我想说的是,机器在任何层面上都理解它实际看到的东西是非常不确定的。
我们如何证明机器的理解力?
假设我们有一台机器,我们给它一个任务(视觉任务、语言任务、游戏等),如何证明机器实际上知道该特定任务中正在发生/发生的事情?
为了缩小范围,举几个例子:
对话——如何证明一台机器实际上知道它在说什么或理解它在说什么?图灵测试是一个好的开始,但从未真正解决实际的理解问题。
愿景:有人如何证明或测试机器实际上知道它所看到的?物体检测是一个开始,但我想说的是,机器在任何层面上都理解它实际看到的东西是非常不确定的。
我们如何证明机器的理解力?
这是人工智能哲学中最重要的问题之一。
试图解决这个问题的最著名的哲学论证是哲学家约翰·塞尔在 1980 年发表的中国房间论证。
论据很简单。假设你在一个房间里,你需要用某种你不懂的语言(在 Searle 给出的特定例子中,中文)与房间外的人交流(以书面形式),但是给你规则操纵这种语言的字符(对于给定的输入,您有规则来产生正确的输出)。如果你遵守这些规则,对于房间外的人来说,你似乎理解这种语言,但实际上你并不理解。
更具体地说,当我说“苹果”时,你会明白它指的是一种特定的水果,因为你吃过苹果,你有一个世界的模型。根据 Searle 的说法,这是理解。
最著名的计算机数学模型,图灵机,本质上是一个操纵符号的系统,所以中国房间的论点直接适用于计算机。
已经讨论了对 CR 论点的许多答复或反驳,例如
那么,我们能证明机器真的懂吗?甚至在 Searle 之前,图灵就已经问过“机器能思考吗?”这个问题。. 为了证明这一点,您需要对人们同意的理解和思维进行严格定义。然而,许多人不想就智力和理解力的定义达成一致(因此对 CR 的论点有很多反驳)。所以,如果你想证明机器理解,你需要提供关于理解的特定定义的证明。例如,如果你认为理解只是符号操作的副作用,你可以很容易地证明机器理解许多概念(它只是从图灵机的定义中得出的)。然而,即使理解只是一个副作用(什么是在这种情况下,副作用实际上意味着什么?)对于符号操作,机器是否能够以与人类理解相同的方式理解相同的概念?很难回答这个问题,因为我们真的不知道人类是否只在我们的大脑中操纵符号。
我最近在 Roger Schank 的动态记忆中看到了一个简洁的理解定义:
基本上,您将体验到的所有内容都存储在内存中,但您需要对其进行索引以便能够将其用于处理。显然,所有体验都略有不同,例如去餐厅大体相同,但细节有所不同。因此,您需要提取细节并仅在必要时存储它们(例如,如果食物或服务特别好或特别差)。否则,您只需存储事件的通用模板(或“脚本”)。
因此,在您的记忆中(注意:这是建模的,不是神经学上正确的),因此您拥有一整套可以检索的事件脚本。因此,目前我将访问我的回复堆栈交换问题脚本,以指导我如何最好地编写此答案,而不会因荒谬的主张等而被否决。
那么,理解就是接收(通过感官输入或语言)一个事件,并将其放入你记忆中的正确区域。所以如果我告诉你我刚去了汉堡王,当这激活你的快餐店记忆集时,你会明白的。如果我然后告诉你我去那里擦地板,它应该激活清洁工作,而不是快餐店。因此,您可以通过将“我去汉堡王打扫地板”链接到正确的内存区域来理解序列。如果计算机随后回答“你吃了什么?” 它显然不会理解输入。但是回答“你在那里工作可以获得免费食物吗?” 将表明某种程度的理解/理解,
如果您体验到全新的事物,您就会将其视为一种新体验,并开始一系列新的体验。例如,如果您以前去过餐馆,但从未去过快餐店。第一次它会很奇怪和不同,但你记得它与现有的餐厅脚本不同。随着时间的推移,它变得足够强大(假设去更多的快餐店),它将成为自己的区域,仍然与餐馆相连,但也不完全相同。
我喜欢的是它是一种通用机制,而不是对内容的显式处理。它基于学习和经验,我认为这是智能行为的关键方面。
更新:这个答案更关心的是试图找到一个可行的定义来理解理解某事的意义,而不是试图在对话系统中对其进行操作。您可能可以通过一些巧妙的技巧通过图灵测试,而无需任何理解。但关键是,理解某事意味着什么?而在目前的定义中,它意味着将相关事件分类在一起,并识别相似经历之间的异同。反应(即反应)不是理解本身,而只是反映理解的内在状态。
我猜想,神经网络的不同之处在于它可以处理广泛的经验,其中 NN 需要大量的训练数据(因为它不理解)。理解涉及通过抽象和评估差异来压缩信息。这仍然是一个难题,我认为仅通过自动化机器学习很难实现。
更新 2:关于图灵测试,在某种程度上它可以追溯到关于经验主义的深刻哲学观点。你怎么知道你周围的世界存在?你可以看到。但是你怎么知道你的眼睛告诉你真实的画面?您可以快速陷入类似矩阵的场景,您肯定不知道任何事情。
图灵测试是显示理解的代理。你不知道计算机理解你所说的,所以你观察它的反应并相应地解释它们。就像在学校里一样:老师问一个问题,从学生的回答中推断他们是否理解。如果你只是重复一个记住的答案,那是不理解的。如果你用不同的词来解释,那表明某种理解。如果您对类似问题进行类比并分析它们为何以及如何不同,那么您现在就证明您真的明白了。
因为我们无法检查学生的内部状态,所以我们无法客观地衡量他们是否理解了某些东西。我们只是将交流作为我们的思想和他们的思想之间的接口,到目前为止,聊天机器人一直专注于做到这一点。但我认为我们真正需要的是研究记忆和记忆处理,以进一步理解或理解。我这样说是作为一名专门研究语言部分的计算语言学家......