是否有可能管理超级智能 AI 的演变?

人工智能 奇点
2021-11-18 05:38:29

后奇点人工智能将超越人类智能。人工智能的进化可以采取任何方向,其中一些可能不适合人类。是否有可能管理超级智能 AI 的演变?如果是,如何?我能想到的一种方法是跟随。与其拥有像人形机器人这样的移动人工智能,我们可以让它像盒子一样保持不动,就像现在的超级计算机一样。它可以用来解决数学、理论科学等问题。

4个回答

假设超级智能是可能的,答案可能是肯定的,也可能不是。

是的,在类似 Kurzweil 的场景中,超级智能是人类通过技术的延伸(我们已经在某种程度上)。然后是控制,因为超级智能取决于我们。它将扩展我们的能力,例如处理速度、处理范围等。即使这样,控制也是有争议的,因为远程控制的杀戮机器将成为超级智能生物的一部分,部分由人类“控制”,部分自主。

在“生命的未来研究所”之类的场景中没有,超级智能独立于人类。想法很简单:面对更聪明的人,我们希望做什么?通常的相似之处是将这种情况与美国早期“发达”征服者的到来进行比较。火药与单纯的力量和箭。

竞争总会带来更好的结果。如果机器会尝试改进自己,我们人类肯定会尝试改进自己。

目前不详细介绍(b/c 我时间紧迫),我强烈建议您研究控制问题

我个人的观点是,人类比机器更有问题。机器至少是理性的。

更具体地说,我相信人类对强大 AI 的“管理”(读作“管理不善”)可能比留给自己设备的超级智能 AI 更成问题。

众所周知,人类滥用权力,历史上充满了这样的例子。至少,机器在这方面有一块干净的石板。

对的,这是可能的。

当人类在研制第一颗核弹时,当时的一些领域专家认为,当反应达到超临界时,它不会停止,会吞噬地球。鉴于我们当时对核能的了解,这是一种似是而非的可能性,直到我们做到了才确定。

一些科学家在实验室中合成了类似黑洞的环境。一些专家认为,如果由于无知或疏忽而意外穿越了某个点,我们可能会用自制的黑洞吞噬我们的星球。

人工智能的情况也是如此。在我们真正创造出超级智能 AI 之前,我们无法确定在它发生之前它是否会被控制或可控。在那之前,你的问题的答案是肯定的,这是可能的,但这并不意味着它会或不会那样发生。