我一直在重新阅读关于中文房间论点的维基百科文章,我……实际上对它并不感兴趣。在我看来,这主要是一个语义问题,涉及“理解”这个词的各种含义的混淆。当然,由于人们已经争论了 25 年,我非常怀疑我是否正确。然而......这个论点可以被认为是由几个层次组成的,我可以解释每一层(至少对我自己)。
- 假设能够理解(解释)一种语言是用这种语言说话的先决条件。
假设我不会说中文,但我可以使用一本大字典和一张语法表。我可以弄清楚每个句子的意思,回答它,然后把那个答案翻译回中文,这一切都不需要我自己说中文。因此,能够解释(解析)一种语言并不是说它的先决条件。
(当然,通过扩展认知理论,我可以解释语言,但我们都同意书籍和查找表只是信息的来源,而不是算法;我仍然是使用它们的人。)
然而,这个任务可以被一个愚蠢的自然语言解析器和字典删除,将中文转换为编码在其中的一组概念和关系,反之亦然。在这个阶段没有涉及到理解。 - 有一种假设是,能够理解(识别和保持关于概念的一系列思想)一种语言是用这种语言说话的先决条件。
我们已经将语言优化为一组概念和概念之间的关系。现在我们需要的是另一个查找表:一种将概念映射到其他概念以及它们之间的关系的详细字典。例如,“计算机”的一个条目可能是“执行计算”,另一个可能是“允许人们玩游戏”。“人”的一个条目可能是“有意见”,另一个可能是“有财产”。然后一个算法(是的,我现在介绍一个!)将完成一个简单的优化问题,以找到一组相关的概念和它们之间的关系,并将“我喜欢玩电脑游戏”变成“你最喜欢玩什么游戏”在电脑上?” 或者,如果它有一些关于“电脑游戏”的条目,
这里唯一的“理解”,除了愚蠢的优化算法,就是知识库。可以想象,这可以从 Wikipedia 中解析出来,但为了获得好的结果,它可能至少在某种程度上是手工制作的。跟着这个会倒下,因为这个过程将无法谈论自己。 - 假设能够理解(“知道”信息如何影响一个人)一种语言是用它说话的先决条件。
可以将与“自我”概念相关的一组“意见”等实施到知识库中。通过确保知识库中包含有关认知的信息,可以模拟所有元认知。然而,这个程序仍然只是从任意输入到输出的映射;即使知识库是可变的(因此它可以在句子之间保留当前主题并学习新信息),例如,当一个句子逐字重复 49 次时,它仍然不会做出反应。 - 假设能够拥有有效的元认知是用一种语言说话的先决条件。
除了……没有。所描述的程序可能会通过图灵测试。它当然符合说中文的标准。然而它显然没有思考;这是一个美化的搜索引擎。它可能能够解决数学问题,除非有人教它,否则它对代数一无所知(在这种情况下,只要有足够的教学,它就能够执行代数公式;Haskell 的类型系统可以做到这一点触及数字原语!),并且可能是图灵完备的,但不会思考。没关系。
那么为什么中国房间的争论如此之大呢?我误解了什么?这个程序对中文的理解就像 Python 解释器对 Python 的理解一样,但是没有意识的存在去“理解”。我不认为这是哲学问题。