有了一些机器学习和深度学习的知识,人工智能似乎不太可能发展成我们想象的意识。
对我来说,意识需要一个与我们今天所拥有的非常不同的新框架,因为当前的学习形式似乎非常“肤浅”。
当前对人工意识和感知的限制是什么?人工意识和知觉之间也有区别吗?
有了一些机器学习和深度学习的知识,人工智能似乎不太可能发展成我们想象的意识。
对我来说,意识需要一个与我们今天所拥有的非常不同的新框架,因为当前的学习形式似乎非常“肤浅”。
当前对人工意识和感知的限制是什么?人工意识和知觉之间也有区别吗?
将意识(如智力)视为一个频谱可能会有所帮助。斯坦福哲学百科全书在“生物意识”(2.1)部分将感知定义为:
知觉。它可能在一般意义上是有意识的,仅仅是作为一种有知觉的生物,一种能够感知和响应其世界的生物(Armstrong 1981)。在这个意义上,有意识可能会承认程度,而究竟什么样的感觉能力是足够的,可能没有明确的定义。鱼在相关方面有意识吗?虾或蜜蜂呢?
斯坦福哲学百科全书,2.1“生物意识”
似乎很明显,就“感知和响应它的世界”而言,人工智能拥有最基本的意识形式。我可以将这种意识水平比作微生物,能够与环境相互作用,但不具备人类甚至高等动物的更高功能。
我们并不真正了解更高意识和人类水平感知的真实本质,这并不一定意味着具有足够复杂性的自动机无法实现它。但是还有一个与验证有关的更深层次的问题(即如何知道系统是真正的自我意识,而不是模拟自我意识。[参见Searle 的 Chinese Room,还有McCarthy 的反驳]
在他的论文《让机器人意识到他们的心理状态》中,麦卡锡说:
有意识的知识和其他信息通过可观察性与无意识信息区分开来,并且对它的观察产生关于它的有意识的知识。我们称之为内省知识。
机器人需要使用内省知识才能在常识世界中运作并完成人类交给它的任务。
人类意识的许多特征是需要的,有些则不需要,有些人类不具备的能力已经在有限的领域中被发现可行和有用。
我们给出了机器人可以用来表示有关其自身心理状态信息的逻辑语言的初步片段。
机器人经常不得不得出结论,它不能根据记忆中的信息来决定一个问题,因此必须从外部寻找信息。
具有大量内省意识的程序尚不存在。
让机器人意识到他们的心理状态,抽象
情况似乎仍然如此,然而,麦卡锡似乎对“计算主义”方法充满希望:
思考意识以设计它为哲学家研究的一些意识问题提供了一种新的方法。一个优点是它专注于对智能行为很重要的意识方面。如果感受质的倡导者是对的,那么机器人似乎不需要它们表现出人类表现出的任何行为。
同上。
内存、处理和算法复杂性的不断增加很可能会产生通用人工智能。
即使事实证明是这样,我怀疑关于人工意识的辩论会继续进行。
参见:人工意识
根据认知科学/心理学文献,我们没有意识理论或感知度量。就其本质而言,诸如此类的“事物”只能根据自己的主观经验来理解(因为您只能通过将意识与您自己的意识体验进行比较来理解意识)。
所以不,即使我们有一个完美复制意识或感知功能的设备,我们仍然很难说它确实是意识。