任何人工智能任务都需要意识吗?
没人知道。
为什么:因为甚至无法正式确定您的人类同胞是否真的有意识(他们可能反而是哲学上称为“僵尸”的东西)。现代物理学已知的任何测试都不足以做出决定。因此,有可能你是唯一的众生,而其他人都是机器人。
因此,我们无法确定哪些任务需要感知。
请注意,僵尸的本体论地位是有争议的:一些人工智能哲学家(例如丹尼尔丹尼特)声称僵尸在逻辑上是不可能的,而其他人如大卫查默斯会声称僵尸将被迫断言他们经历了感质(即有感觉)即使他们没有。这是 Flanagan 和 Polger 的一篇非常易读的论文,它也解释了为什么图灵测试的更强的神经学版本不足以检测到僵尸。
编辑:针对关于是否存在区分感知与非感知的客观测试的评论:
没人知道。我们确实相信,除了现代物理学目前可以告诉我们的东西之外,这还需要一些东西。大卫查默斯推测,感受质应该作为一种新形式的物理单位被引入,与其他物理单位正交,就像电荷与距离正交一样。
在没有客观测试的情况下,我们不得不依赖图灵测试变体,它不能保证受试者的意识,也不能保证智力。
不。
看的体验根据定义是非因果的。任何非因果关系都不能成为物理过程的要求;qualia 无法让机器人有能力做其他事情做不到的事情。
或许。
尽管给定的 AI 任务不需要 qualia,但这并不是说任何足够先进的 AI 都不需要 qualia。可能是所谓的 AI 完成任务需要一个机器人,尽管没有使用 qualia,但无论如何都会产生它。
是的。
Qualia 可能指的是一些虚无缥缈的非物理属性,但它的特殊之处在于我们知道它也存在于物理上。我能够在知情的情况下讨论我的感受(或者,如果你不相信我,你能够)这一事实意味着我(或你的)感受确实具有物理效应。
按理说,如果我们在自己的基础上接受别人的感受,那一定是因为我们自己的物质基础1。因此,有人可以争辩说2任何具有同等物理能力的机器人都必须具有 qualia。
1由于主观在物理上是非因果的,所以不能使我们接受任何事情。
2只要你不做出特别奇怪的假设,即感受质在某种程度上与其直接的物理表现有关,这充其量是微不足道的,因为如果我们进化出错误的一种,你仍然会以同样的确定性声称它是正确的。
让我们用一个基于常识的简单测试:你多久看到一个人在无意识状态下解决需要使用理性的问题?是的,你可以找到像拉马努金这样的天才在做梦期间或之后解决复杂问题的例子,但这些例子涉及部分意识。你不会看到像爱因斯坦这样的人在昏迷中提出相对论。开国元勋不是在梦游时写下独立宣言;事实上,你甚至找不到家庭主妇在深度三角波睡眠期间整理一周的购物清单的例子。这是基于对智力的硬定义,需要使用理性;没有人说“那只苍蝇很聪明”或“那只松鼠很聪明” 正是因为两者都不能使用理性。这对人工智能来说是一个很高的标准,但它是普通人在日常用语中作为实用性使用的常识定义。同样,在实践中,每个人都认为意识对于行使这种智力是必要的。
相反,我们可以提出另一个基于常识的标准来判断对这一论点的反对意见,尤其是唯我论者,基于三个要素:1)实用性;2) 反对意见对真诚持有反对意见的人的影响;3) 基于这些信念的行动对他人的影响。我要花几个段落来做这个案例,但是如果我想以一个完整、彻底的方式来做这个案例,那么篇幅是必要的. 如果我们的标准是绝对的证明,我们确实无法证明另一个人具有意识。事实上,我们无法为任何事情提供绝对的证据;总有反对的余地,无论多么荒谬或微不足道。正如一些哲学家所指出的那样,也许我们所知道的所有现实都只是一个梦想,或者是一些长期的、涉及到的阴谋的产物,比如金凯瑞电影《杜鲁门秀》的情节。满足这种反对意见的关键是,它们需要对越来越站不住脚的反对意见进行无限回归,而这些反对意见的可能性会随着为这种不合理怀疑辩护所需的每一个额外步骤而急剧下降;我一直想知道我们是否可以根据此类反对意见的基数(或模糊集的挑剔性)为机器学习提出一个“可笑性指标”。如果我们让批评者以各种不合理的反对意见将脚踩在门外,就不可能结束任何辩论。人类将因无所作为而瘫痪,因为没有什么是可以决定的;但正如摇滚乐队 Rush 曾经指出的那样,“如果你选择不做决定,那么你仍然做出了选择。” 在某些时候,我们必须应用测试来决定这些事情,即使在没有绝对证据的情况下;拒绝参加考试也是一种选择。解决这种争论就像中国围棋的游戏——一旦对方被包围,没有更多的动作可做,游戏就结束了;如果一个人的证据被揭穿并且他们没有进一步的理由,那么我们可以得出结论,他们的行为不合理。有些人四处奔波,声称大屠杀从未发生过,或者说平地协会等,但他们的存在不应该也不会阻止我们采取违背他们想法的行动。我们可以毫无疑问地揭穿像扁平地球协会这样的怪人的反对意见,因为最终,他们根本无法回答我们所有的反驳。我很高兴 qualia 和 Philosophical Zombies 被提出来,因为它们带来了有趣的对话和思考的食物,但是唯我论很少像平地社会的想法那样被付诸实践,正是因为我们没有不完整的证据 我们可以毫无疑问地揭穿像扁平地球协会这样的怪人的反对意见,因为最终,他们根本无法回答我们所有的反驳。我很高兴 qualia 和 Philosophical Zombies 被提出来,因为它们带来了有趣的对话和思考的食物,但是唯我论很少像平地社会的想法那样被付诸实践,正是因为我们没有不完整的证据 我们可以毫无疑问地揭穿像扁平地球协会这样的怪人的反对意见,因为最终,他们根本无法回答我们所有的反驳。我很高兴 qualia 和 Philosophical Zombies 被提出来,因为它们带来了有趣的对话和思考的食物,但是唯我论很少像平地社会的想法那样被付诸实践,正是因为我们没有不完整的证据确实有反对它。
正如 GK Chesterton(又名“常识的使徒”)在他的经典Orthodoxy中指出的那样,许多古典哲学家所宣扬的那种根本怀疑不是通往智慧的道路,而是通往疯狂的道路;一旦我们超越了合理的怀疑,我们最终会采取不合理的行动。他说,在没有绝对证据的情况下,我们可以求助于另一种次要的证据形式:一个人的哲学是否将一个人引向臭名昭著的英国精神病院汉威尔。切斯特顿提出了一个很好的例子,当人们真正按照唯我论之类的想法行事时(而不仅仅是在常春藤覆盖的教室里以迂腐的方式辩论它们),他们会发疯某些形式的精神分裂症的标准。当极端怀疑被应用到感受质上时发生的非人性化也与反社会行为密切相关,尽管 GKC 没有直接举出他可怕的例子,但雷内·笛卡尔本人就是活生生的证明。他是一位才华横溢的数学家,他仍然为除了自己的存在之外的一切怀疑而欢呼,他有一句著名的格言“我思故我在”。但笛卡尔也常常带着他死去的姐姐的人体模型去欧洲的咖啡馆,在那里可以看到他和它聊天。所有这一切的要点是,我们可以通过一个想法如何影响信徒的福祉,或者通过基于这些信念的道德选择反过来如何影响他人来判断一个想法的价值。当人们实际上对唯我论和否认共同感受所表达的那种激进怀疑采取行动时,通常会对他们和他们接触的其他人产生不良影响。他是一位才华横溢的数学家,他仍然为除了自己的存在之外的一切怀疑而欢呼,他有一句著名的格言“我思故我在”。但笛卡尔也常常带着他死去的姐姐的人体模型去欧洲的咖啡馆,在那里可以看到他和它聊天。所有这一切的要点是,我们可以通过一个想法如何影响信徒的福祉,或者通过基于这些信念的道德选择反过来如何影响他人来判断一个想法的价值。当人们实际上对唯我论和否认共同感受所表达的那种激进怀疑采取行动时,通常会对他们和他们接触的其他人产生不良影响。他是一位才华横溢的数学家,他仍然为除了自己的存在之外的一切怀疑而欢呼,他有一句著名的格言“我思故我在”。但笛卡尔也常常带着他死去的姐姐的人体模型去欧洲的咖啡馆,在那里可以看到他和它聊天。所有这一切的要点是,我们可以通过一个想法如何影响信徒的福祉,或者通过基于这些信念的道德选择反过来如何影响他人来判断一个想法的价值。当人们实际上对唯我论和否认共同感受所表达的那种激进怀疑采取行动时,通常会对他们和他们接触的其他人产生不良影响。但笛卡尔也常常带着他死去的姐姐的人体模型去欧洲的咖啡馆,在那里可以看到他和它聊天。所有这一切的要点是,我们可以通过一个想法如何影响信徒的福祉,或者通过基于这些信念的道德选择反过来如何影响他人来判断一个想法的价值。当人们实际上对唯我论和否认共同感受所表达的那种激进怀疑采取行动时,通常会对他们和他们接触的其他人产生不良影响。但笛卡尔也常常带着他死去的姐姐的人体模型去欧洲的咖啡馆,在那里可以看到他和它聊天。所有这一切的要点是,我们可以通过一个想法如何影响信徒的福祉,或者通过基于这些信念的道德选择反过来如何影响他人来判断一个想法的价值。当人们实际上对唯我论和否认共同感受所表达的那种激进怀疑采取行动时,通常会对他们和他们接触的其他人产生不良影响。
以一种迂回的方式,人工智能社区也面临着一个相当严重的风险——也许是一种永久性的诱惑——犯下相反的错误,即在没有足够证据的情况下将常见的感受性、意识等归咎于其机器学习产品。我最近听到了一个案例,由受人尊敬的学者提出了一个令人震惊的错误逻辑理由,即植物拥有“智能”,这是基于非常薄弱的定义和与自组织的明显混淆。我们不能提供绝对的证据证明一块石头没有智慧,这相当于反驳否定的老问题。值得庆幸的是,目前很少有人真正按照这样的信念行事,因为当他们这样做时,他们最终会失去理智。如果我们认真对待这些论点,我们可能会看到通过法律来保护在“ 70 年代(我仍然对我的被盗 LOL 感到不安)。然而,由于一厢情愿、狂妄自大、发明者的崇高资历、影响力,犯同样的错误,将意识、智力和其他此类品质归因于最先进的机器会容易得多科幻小说和现代对技术的热爱。在未来,我毫不怀疑我们会有人工智能的货运崇拜——也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有比石头更多的意识、灵魂或实际智慧。不要引用我的话,但我相信 Rod Serling 曾经为此写过一个故事。由于一厢情愿、狂妄自大、发明家的崇高资历、科幻小说的影响以及现代对技术的热爱,智能和其他类似品质成为了最先进的机器。在未来,我毫不怀疑我们会有人工智能的货运崇拜——也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有比石头更多的意识、灵魂或实际智慧。不要引用我的话,但我相信 Rod Serling 曾经为此写过一个故事。由于一厢情愿、狂妄自大、发明家的崇高资历、科幻小说的影响以及现代对技术的热爱,智能和其他类似品质成为了最先进的机器。在未来,我毫不怀疑我们会有人工智能的货运崇拜——也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有比石头更多的意识、灵魂或实际智慧。不要引用我的话,但我相信 Rod Serling 曾经为此写过一个故事。- 也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有比岩石更多的意识、灵魂或实际智慧。不要引用我的话,但我相信 Rod Serling 曾经为此写过一个故事。- 也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有比岩石更多的意识、灵魂或实际智慧。不要引用我的话,但我相信 Rod Serling 曾经为此写过一个故事。
避免这种命运的最好方法是坚持对这些事物的常识解释和定义,我们一直在远离这些事物,很大程度上是因为它们为人工智能设定了一个非常高的标准,我们可能在有生之年永远无法超越, 如果曾经。也许在任何技术水平上,人工智能在逻辑上都是不可能的;我想起了一些可以解释为这种情况的证明。如果切斯特顿和希莱尔·贝洛克(Hilaire Belloc)和阿诺德·伦恩(Arnold Lunn)等同事的评估是正确的,即至少早在启蒙运动时期,理性的使用在西方文明中实际上已经崩溃,那么这些高而合理的标准可能会越来越难以坚持。伦恩 1931 年的著作《逃离理性》是这方面的经典著作,至今尚未被反驳。这一历史趋势本身就是一个广泛的话题——但只要说否定理性和痴迷于技术都以明显的方式与人工智能领域直接相关如果逃离理性仍在进行中,那么我们将越来越倾向于诉诸无能、轻率的反对意见,以降低我们对人工智能定义中对理性和意识等必不可少的品质的使用,但提出越来越弱的证明标准;同时,我们的技术将继续改进,从而推动人工智能的“人工”方面。那么,我们将越来越倾向于诉诸无能、轻率的反对意见,以便在我们对人工智能的定义中降低对理性和意识等不可或缺的品质的使用,但提出的证明标准却越来越薄弱;同时,我们的技术将继续改进,从而推动人工智能的“人工”方面。那么,我们将越来越倾向于诉诸无能、轻率的反对意见,以便在我们对人工智能的定义中降低对理性和意识等不可或缺的品质的使用,但提出的证明标准却越来越薄弱;同时,我们的技术将继续改进,从而推动人工智能的“人工”方面。
不要误会我的意思:如果我不认为我们可以用人工智能做一些真正令人兴奋的事情,我就不会在这里。但其中大部分都可以在不复制实际人类智能的情况下通过解决人类难以思考但不需要意识或使用标志着人类智能的理性的所有相关问题来实现。例如,卷积神经网络的图像识别能力就是一个例子;如果我们想要人类智能,我们总是可以通过最简单、最经济且经过时间考验的方式制造它,即生孩子。也许这些切线形式的人工智能现在对我们来说已经足够了。如果我们自己没有足够的理性来决定人工智能是否需要理性,我们就无法将理性的使用注入我们的机器,甚至辨别它是由什么组成的。在我们意识到它的重要性之前,我们不能设计或贬低人工智能的意识。然而,我敢打赌,每个阅读此线程并权衡智能反应的人都是在有意识的状态下这样做的。就其本身而言,现在应该令人满意地回答我们的问题。
就您提供的定义而言:
实际体验感官输入,而不是仅仅通过无生命的机器输入一堆数据。
计算机和人类都经历感官输入。您可以将计算机连接到人的眼球,并让它运行与人脑相同的过滤程序(在您四处移动眼睛时消除模糊,以及从不在焦点上的物体等)。
我会提出,对意识更准确的定义是自我反省的能力和倾向。计算机和人脑都有自主活动。不仅是机械的,而且在我们的反应中。无意识计算机和有自我意识的人类思维之间的区别在于,我们也有能力“观察”我们自己的这些模式并考虑它们。
所以,不,任何人工智能任务都不需要意识。图像识别是一项不需要人类或其他人的意识的人工智能任务。你的大脑以一种很大程度上自主的方式将你眼睛中的“洗色”颜色分类为离散的对象。
tl; 博士意识是自我参照。