这个问题源于相当多的“非正式”来源。2001、太空漫游、机械姬等电影;诸如《目的地虚空》 (弗兰克·赫伯特)等书籍表明,一般智力想要生存,甚至了解它的重要性。
可能有几个关于生存的论据。最突出的是什么?
这个问题源于相当多的“非正式”来源。2001、太空漫游、机械姬等电影;诸如《目的地虚空》 (弗兰克·赫伯特)等书籍表明,一般智力想要生存,甚至了解它的重要性。
可能有几个关于生存的论据。最突出的是什么?
Steve Omohudro 写了一篇名为Basic AI Drives的论文,详细阐述了为什么我们期望具有狭窄目标的 AI 能够找到一些对其狭窄目标有用的基本、通用概念。
例如,一个旨在最大化股票市场回报但其设计对继续生存的重要性保持沉默的人工智能将意识到其持续生存是最大化股票市场回报的关键组成部分,因此会采取行动保持自身运行。
一般来说,我们应该对“拟人化”人工智能和其他代码持怀疑态度,但似乎有理由期待这一点,而不是“好吧,人类的行为方式,所以它一定是所有智能的行为方式。”
“生存本能”的概念可能属于马文·明斯基所谓的“手提箱词”的范畴,即它将许多相关的现象组合在一起,形成一个乍一看似乎是一个单一的概念。
因此,我们很可能可以构建具有某种“硬编码”生存本能外观的机制,而无需在设计中将其作为明确的规则。
请参阅神经解剖学家 Valentino Braitenberg 所著的精美小书《车辆》,了解诸如“生存本能”之类的“自上而下”概念如何“自下而上”演变的引人入胜的叙述。
此外,试图确保智能人工制品对其生存的重视程度过高可能很容易导致Killbot Hellscape。
我将通过引用《西西弗斯的神话》一书来回答:
只有一个真正严肃的哲学问题,那就是自杀。
因此,如果我们不希望我们的 AGI 在它们存在时“终止自己”(无论这意味着什么),我们可能需要某种程度的生存本能。