人工智能会理解自己的功能吗?

人工智能 哲学 人工意识 自我意识
2021-11-04 09:24:34

假设我有一个相当先进的人工智能,它可以理解电子和软件结构的基础知识。

它是否能够理解它的意识只是内存中的一些位和操作系统中的线程?

2个回答

这是一个很好的问题,我也一直在思考其中的一些元素,尽管我们离算法上的实际问题还很远。这个问题引发了各种各样的形而上学问题(康德本人表明,纯粹的理性不足以解决所有问题,但我将避免那个兔子洞,而是专注于你问题的机制。)

  • 意识:这与自我意识不同,从根本上说,可以说只需要对某事的意识。

大多数科学家认为,意识并不是宇宙中所有物质的普遍属性。相反,意识仅限于大脑相对复杂的动物子集。然而,科学家对动物行为和大脑解剖学的研究越多,意识似乎就越普遍。像人脑一样复杂的大脑绝对不是意识所必需的。
资料来源:《科学美国人》“自我意识是否需要复杂的大脑?”

因此,接收输入的自动机可以说是意识,但需要注意的是,这个想法可能仍然被认为是激进的。关键是将单纯的“意识”与更复杂的概念(如自我意识)区分开来。

  • 自我意识:圣杯。这是一组元素(例如人类有机体)意识到自己的想法。

但这很棘手,因为使用机器学习的自动机“意识到”自己,因为它们可能会修改他们的“思维”过程,甚至他们的“物理”结构。

但是机器学习系统肯定不是人类意义上的自我意识。一个问题可能是,这仅仅是这些系统不是完整的算法通用智能的一个功能,还是还有更多?如果还有更多,它是严格意义上的形而上学问题,还是可以通过纯粹理性的方式得出答案?即使是后者,仍然存在主观性问题,如:“自动机是真正的自我意识还是只是在模仿自我意识?” 这让我们回到了“有区别吗?”的形而上学问题。

然而,

  • 如果有一个完整的算法通用智能,其意识与人类意识相当,它是有意识的,甚至能够使用它的语料库的基本组成部分*,它肯定能够理解它的意识是“比特和字节”,就像人类意识到我们是软机器一样,我们的意识是我们身体和思想的功能。

我有意使用语料库,因为它既与文本相关(根据图灵机的概念,它可能是代码甚至是最简化形式的比特串),并且还具有解剖学意义,例如在有机体中。 语料库来自拉丁语,其含义的扩展包括作为信息的物质是现代的。

机器永远不会有意识。

让我们试试这个理论思维练习。你记住了一大堆形状。然后,你记住形状应该进入的顺序,这样如果你看到一堆形状按特定顺序排列,你会通过以另一个正确的顺序选择一堆形状来“回答”。现在,你有没有学到任何语言背后的意义?程序以这种方式操作符号。(以前,人们要么回避这个问题,要么从未得到满意的答案)

以上是我对 Searle 对系统回复他的中文房间论证的反驳的重新表述。