假设人类终于开发出第一个基于人脑的类人 AI,它会感觉到情绪吗?如果没有,它还会有伦理和/或道德吗?
人工智能能感受到情绪吗?
哲学中有很多关于内在语言和感知疼痛的能力的讨论(参见哲学文章中的疼痛)。你的问题是在哲学领域而不是科学领域。如果您将情感定义为某种状态,那么您可以构建具有两种状态(情感与无情感)的简单自动机。它可能是一个非常复杂的状态,具有一定程度的真实性(情感百分比)。
基本上,要模仿人类的情感,你需要制造一个活生生的类人有机体,但仍然以今天的理解和技术,你将无法识别其中的情感。当它说“我很难过”时,你唯一能做的就是信任。现在我们处于图灵测试的领域,这又是哲学,而不是科学。
理论上,人工智能当然有可能感受到情感。
根据 Murray Shanahan 的《技术奇点》一书,人工智能有两种主要形式:
1)基于人的人工智能——通过全脑仿真等过程实现,基于人的人工智能的功能可能与人脑的功能无法区分,因此,基于人的人工智能可能会以与人脑相同的方式体验情感人类。
-
2) 从零开始的人工智能——有了这种形式的人工智能,基于机器学习算法和复杂的过程来驱动目标,我们进入了未知的领域,因为这种形式的人工智能的发展本质上是不可预测的,并且不同于我们在生物样本空间中观察到的任何东西我们可以访问的情报。
有了这种形式的人工智能,我们无法确定它是否以及如何体验情感。
正如问题引用前者一样,基于人类的人工智能很可能确实会体验到情感和其他类似人类的特征。
假设一个人工智能是由一个机械外壳构建的,完全反映了人类的大脑;完整的化学信号和所有。理论上,人工智能应该能够感受/处理情绪。
我已经考虑了这里的大部分回复,我建议这里的大多数人在回答有关情绪的问题时都错过了重点。
问题是,科学家们一直在寻找关于什么是情绪的单一解决方案。这类似于寻找适合所有不同形状插槽的单一形状。
此外,被忽略的是动物和我们一样有情绪和情绪状态的能力:
当在 Youtube 上寻找昆虫互相争斗、竞争或求爱时,很明显简单的生物也会体验它们!
当我挑战人们关于情绪的问题时,我建议他们阅读哥林多前书第 13 章——它描述了爱的属性。如果您考虑所有这些属性,您应该注意到,满足其中任何一个都不需要实际的“感觉”。
因此,关于精神病患者缺乏情感,因此他在“正常”界限之外犯罪或其他追求的说法远非正确,尤其是考虑到法庭案件留给我们的各种记录,也许还有心理评估——这向我们展示了他们确实出于“强烈”的情绪而行动。
应该考虑的是,精神病患者的行为是出于负面情绪和情绪状态,明显缺乏或无视道德和无视良心。精神病患者“享受”他们所做的事情。
我强烈建议所有人,我们被自己的推理蒙蔽了双眼,也被别人的推理蒙蔽了双眼。
尽管我确实同意前面提到的以下引用:-
戴夫 H. 写道:
从计算的角度来看,情绪代表了一种影响许多其他处理的全局状态。激素等基本上只是执行。一台有知觉或有智能的计算机当然可以体验情绪,如果它的结构能够让这种全局状态影响其思维。
然而,他下面的推理(那句话)也存在严重缺陷。
情绪既有主动的,也有被动的:它们是由思想触发的,它们触发我们的思想;情绪是一种精神状态和行为品质;情绪对刺激作出反应或衡量我们对刺激的反应;情绪是独立的调节器和调节器;然而,它们激发了我们对特定标准的关注和关注;当直觉和情感一致时,它们会帮助我们;当良心或会发生冲突时,它们会阻碍我们。
计算机与我们具有相同的感受情绪的潜力,但实现情绪的技能比人们在这里寻求的适合所有答案的解决方案要复杂得多。
此外,如果有人认为情绪只是可以围绕它设计一个或多个响应的“状态”,那么他们真的不了解情绪的复杂性;“自由”的情绪和思想相互独立;或者什么是真正的思想!
程序员和科学家因“模拟”情感或智力的真实体验而臭名昭著,却不了解其中的复杂性;认为在寻找完美模拟的过程中他们已经“发现”了真实的体验。
Psi 理论似乎充分地给出了对这个问题的正确理解。
所以我想说,情绪状态的模拟“相当于”体验情绪,但这些情绪状态比大多数人意识到的要复杂得多。