意识和自我意识对于制作高级 AI 有多重要?我们离实现这样的目标还有多远?
例如,在制作神经网络时,其中(很可能)没有意识,只有数学落后,但我们是否需要 AI 变得有意识才能解决未来更复杂的任务?此外,实际上有什么方法可以让我们确定某件事是有意识的,还是只是假装的?制作一个声称它是有意识的计算机程序很“容易”,但这并不意味着它是有意识的(例如 Siri)。
如果人工智能只是基于预先定义的规则而没有意识,我们还能称之为“智能”吗?
意识和自我意识对于制作高级 AI 有多重要?我们离实现这样的目标还有多远?
例如,在制作神经网络时,其中(很可能)没有意识,只有数学落后,但我们是否需要 AI 变得有意识才能解决未来更复杂的任务?此外,实际上有什么方法可以让我们确定某件事是有意识的,还是只是假装的?制作一个声称它是有意识的计算机程序很“容易”,但这并不意味着它是有意识的(例如 Siri)。
如果人工智能只是基于预先定义的规则而没有意识,我们还能称之为“智能”吗?
人工意识是一个具有挑战性的理论和工程目标。一旦遇到了这个重大挑战,计算机对自身的有意识的认识可能会是一个次要的补充,因为有意识的计算机只是它的意识可以意识到的另一个对象。
孩子可以照镜子并认识到来回移动双手或做鬼脸会在反射中产生相应的变化。他们认出了自己。后来他们意识到对自己的动作施加物理控制比对另一个人的手或脸施加控制要容易得多。
有些人了解到,如果掌握了某些社会和经济技能,就可以对他人的面部和手动操作进行有限控制。他们成为雇主、房东、投资者、活动家、作家、导演、公众人物或企业家。
任何研究过认知科学或经历过思想类型之间界限的人,因为他们是专业顾问或只是一个深度倾听者,都知道意识周围的界限是模糊的。考虑这些。
这些事情中的任何一件都可以在有或没有某种意识、潜意识、冲动或习惯的情况下完成。
主观上,人们报告说下车后不记得开车回家了。人们可以听到某人说话,点头表示肯定,回答说“是的,我明白了”,甚至重复他们所说的话,但如果深入询问,似乎对演讲的内容没有记忆。一个人可以在没有理解的情况下阅读一段并读到最后。
相比之下,一个人可能会在工作时用心洗漱,考虑到卫生的重要性,并像外科医生准备手术一样专心致志,注意肥皂的气味,甚至是自来水的氯化。
在这些极端之间,部分意识也可以通过实验和个人经验检测到。意识绝对需要注意力功能,它暂时监督其他脑-身子系统的协调。
一旦生物或人工系统达到了专心协调的能力,它们可以协调的对象和任务就可以互换。考虑这些。
现在考虑当我们比较自我导向或外部导向的注意力时,这些心理活动有多么相似或不同。
这说明了为什么自我意识的自我部分不是人工智能的挑战。困难的是细心的(但试探性的)协调。早期的微处理器,设计用于实时控制系统,包括(并且仍然包括)异常信号,简单地模拟了这种暂时性。例如,在玩游戏以赢得比赛时,人们可能会尝试与主题发起对话。当两个活动需要相同的子系统时,注意力可能会转移。
我们也倾向于考虑这种注意力意识的转换。如果我们是试图与赢得比赛的人发起对话的人,我们可能会说,“你好?” 问号是因为我们想知道玩家是否有意识。
如果要将意识的意义贬低到最基本的标准,可能会这样说。
“我的神经网络在某种程度上是智能的,因为它意识到我的收敛标准和网络当前行为之间的差异,因为它是参数化的,所以它确实是人工智能的一个例子,尽管是一个原始的例子。”
这种说法没有任何严重错误之处。有人称其为“狭义智能”。这是一个稍微不准确的描述,因为在其设计中使用了许多可用的最有效技术的任意深度人工网络的可能应用数量可能是天文数字。
以狭隘为特征的另一个问题是推断存在不狭隘的智能系统。与更智能的系统相比,每个智能系统都是狭窄的。考虑一下这个思想实验。
Hannah 撰写了一篇关于一般智力的论文,在理论处理和写作技巧方面都表现出色。许多人引用它并引用它。Hannah 现在在她的 AI 事业中非常成功,她有足够的钱和时间来构建一个机器人系统。她的设计基于她现在著名的纸张,并且不惜一切代价。
令她惊讶的是,由此产生的机器人的适应性如此之强,以至于它的适应性甚至超过了他自己。她将其命名为乔治亚理工学院是因为她住在大学附近。
佐治亚成了好朋友。她以惊人的速度学习,是一个令人惊讶的好室友,比汉娜认为的人类可能做的更好,这可能是真的。
佐治亚州申请佐治亚理工学院,就在汉娜家的公交车线上,在那里学习人工智能。在仅仅三年的学习后获得博士学位后,乔治亚在汉娜慷慨地为她举办了一个参加人数众多的论文发表派对后与汉娜坐在一起。
最后一位客人离开后,当汉娜意识到她家的真实情况时,有片刻的沉默。她想,“Georgia 现在的研究会超过我吗?” 汉娜终于羞怯地问道:“老实说,乔治亚,你认为你现在是像我一样的普通情报员吗?”
有一个停顿。乔治亚带着一脸谦逊的表情回答说:“根据你对一般智力的定义,我是。你不再是了。”
不管这个故事在 2018 年、3018 年成真,还是永远不会成真,原则是明确的。乔治亚能够与汉娜进行比较分析自己,就像汉娜同样能够一样。在故事中,Georgia 应用了在 Hannah 的论文中创建的定义,因为 Georgia 现在能够构想许多智力定义,并选择 Hannah 的作为对话背景中最相关的定义。
现在想象一下这个故事的变化。
......她想,乔治亚的想法是什么?最后,汉娜羞怯地问道:“老实说,乔治亚,你现在和我一样清醒了吗?”
乔治亚通过记忆在她过去的研究中对“有意识”这个词的所有用法进行了思考——在认知科学、文学、法律、神经病学、遗传学、脑外科、脑损伤治疗和成瘾研究中的一千篇参考文献。她停顿了几微秒以彻底考虑这一切,同时感知她的室友体温、神经化学平衡、面部肌肉运动趋势和肢体语言。
恭敬地,她多等了 3.941701 秒,这是她计算出来的延迟,可以最大限度地减少对她所爱的汉娜的羞辱,然后回答:“意识到什么?”
乔治亚州的答复可能是汉娜可能知道或不知道的假设。对于任何给定的自动机,,给定意识,, 一个场景,我们有一个定义,可用于评估任何自动化意识的所有方面的聚合,, 给. 乔治亚的(显然已经证明)假设是这样的。
这是一种数学方式,即总有某人或某物对给定场景更加敏感,无论她、他还是它是否存在。将评估标准从意识转变为智力,我们已经做到了。
人们只能推测,汉娜的论文定义了与周围最聪明的事物相关的一般智力,这曾经是受过良好教育的人类。因此,汉娜对智力的定义是动态的。乔治亚将同样的公式应用于新情况,她现在是低智商的狭隘标准。
关于确认意识的能力,其实比智力更容易确认。考虑一下这个思想实验。
杰克正在使用杰克购买的新国际象棋套装与迪伦下棋。尽管这套新套装具有美学美感,其白色缟玛瑙和黑色玛瑙碎片,Dylan 以实力移动每件作品并与 Jack 将死。杰克想知道迪伦是否比他更聪明,并问在这种情况下什么是正常的问题。
“狄伦,哥们,你下棋多久了?”
无论答案如何,无论迪伦是拥有高级人工智能量子处理器的机器人还是人类,都无法可靠地衡量迪伦的智力。然而,毫无疑问,迪伦意识到了这场比赛。
在此答案顶部列表中的示例中,有一组特定的要求符合意识。对于 Jack 和 Dylan 的演奏,一些事情必须协同工作。
连接的拓扑如下,可能还有更多。
1 ⇄ 4 ⇄ 2
3 ⇄ 5 ⇄ 2
4 ⇄ 6 ⇄ 5
7 ⇄ 8 ⇄ 9
6 ⇄ 10 ⇄ 8
10 ⇄ 11
这是支持意识可能适用的多种事物之一的众多集成拓扑之一。
无论是为了准备工作而照镜子,还是深入观察,考虑本体论问题,“我是谁?” 意识、潜意识、冲动和习惯的每一种组合都需要特定的心理特征拓扑。必须协调每个拓扑结构以形成其特定的意识体现。
为了解决其他一些子问题,很容易制造一台声称自己有意识的机器,一个数字录音机可以通过记录自己说的话在五秒钟内完成。
让机器人阅读这个答案或其他概念,深思熟虑,然后根据人类语言的词汇和惯例构建句子,告诉你它的结论是完全不同的任务。开发这样的机器人可能需要 1000 年以上的人工智能研究。也许十个。也许永远不会。
最后一个问题,从复数转换为单数是,“如果[一个人工智能设备]只是[操作]在预先定义的规则上,没有意识,我们还能称之为智能吗?” 答案必然取决于定义上面,并且,因为两者都没有也不在人工智能社区内有一个标准定义,无法确定交叉熵或相关性。这是无法确定的。
也许正式的定义和现在可以编写并提交给 IEEE 或某些标准机构。
有自我意识的 AI 很重要,因为意识使我们成为人类。科学家们正在尝试开发更接近人类和人类行为的人工智能。人类的思维过程非常复杂,在人工智能中开发它真的可以用有意识的机器人代替我们。人工智能不从事涉及决策的工作的唯一原因是因为它们没有意识。