人工智能会不会对人类造成生存威胁?

人工智能 类人 应用 网络恐怖主义
2021-10-24 23:27:13

我们正在进行研究,花费数小时研究如何让真正的 AI 软件(智能代理)更好地工作。我们也在尝试使用人工智能技术实现一些应用,例如在商业、健康和教育领域。

尽管如此,到目前为止,我们大多数人都忽略了人工智能的“黑暗”一面。例如,一个“不道德”的人可以购买数千架廉价无人机,用枪支武装它们,然后将它们发射出去向公众开火。这将是人工智能的“不道德”应用。

人工智能会不会(在未来)对人类造成生存威胁?

2个回答

毫无疑问,人工智能有可能对人类构成生存威胁。

对人类最大的威胁在于超级智能人工智能。

超越人类智能的人工智能将能够以指数方式增加其自身的智能,从而产生一个对人类来说将是完全不可阻挡的人工智能系统。

在这个阶段,如果人工智能系统决定人类不再有用,它可能会将我们从地球上抹去。

正如 Eliezer Yudkowsky 所说,人工智能是全球风险中的积极和消极因素

“人工智能不恨你,也不爱你,但你是由原子组成的,它可以用来做其他事情。”

另一个威胁在于高度智能的人工智能的指令

在这里考虑回形针最大化思想实验很有用。

一个高度智能的人工智能被指示最大化回形针的生产,可能会采取以下步骤来实现其目标。

1)实现智能爆炸,让自己变得超级智能(这将提高回形针优化效率)

2)消灭人类,使其不能被禁用(这将最大限度地减少生产并降低效率)

3)利用地球的资源(包括地球本身)来构建托管人工智能的自我复制机器人

4) 以指数方式分布在宇宙中,收获行星和恒星,将它们转化为材料来建造回形针工厂

显然,这不是从事商业回形针生产的人想要的,但它是完成 AI 指令的最佳方式。

这说明了超级智能和高度智能的人工智能系统如何成为人类可能面临的最大生存风险。

Murray Shanahan 在The Technological Singularity中甚至提出 AI 可能是解决费米悖论的方法:我们在宇宙中看不到智能生命的原因可能是,一旦一个文明变得足够先进,它就会发展出最终毁灭的 AI它。这被称为宇宙过滤器的想法。

总之,使人工智能如此有用的智能也使其极其危险。

埃隆·马斯克和斯蒂芬·霍金等有影响力的人物表达了担忧,即超级智能 AI 是我们将不得不面对的最大威胁。

希望这能回答你的问题 :)

我将智能定义为预测未来的能力。因此,如果某人很聪明,他可以预测未来的某些方面,并根据他的预测决定要做什么。因此,如果“聪明”的人决定伤害他人,他可能在这方面非常有效(例如希特勒和他的手下)。

人工智能在预测不确定未来的某些方面可能非常有效。这个恕我直言会导致两种负面情况:

  1. 有人编程它来伤害人。要么是错误的,要么是故意的。
  2. 人工智能将被设计为做一些安全的事情,但在某些时候,为了更有效,它会重新设计自己,也许它会消除障碍。因此,如果人类成为障碍,它们将非常迅速且非常有效地被清除。

当然,也有积极的情况,但你不是在问他们。

我建议阅读这篇关于人工超级智能和创建它的可能结果的酷帖子:http ://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html