技术奇点的概念是什么?

人工智能 哲学 定义 敏捷 超级智能 奇点
2021-11-10 19:31:41

我听说过技术奇点的概念,它是什么以及它与人工智能有何关系?这是否是人工智能机器已经发展到超越人类所能做的自我成长和学习并且他们的成长起飞的理论点?我们怎么知道什么时候达到这一点?

4个回答

技术奇点是一个理论时间点,在这个时间点,自我改进的 通用人工智能能够理解和操纵人脑范围之外的概念,也就是说,它可以理解人类通过生物设计可以理解的事物的时刻。吨。

关于奇点的模糊性来自这样一个事实,即从奇点开始,历史实际上是不可预测的。人类将无法预测任何未来事件,或解释任何当前事件,因为科学本身无法描述机器触发的事件。本质上,机器会像我们看待蚂蚁一样看待我们。因此,我们无法做出超越奇点的预测。此外,作为一个合乎逻辑的结果,我们根本无法定义奇点可能发生的点,甚至无法识别它何时发生。

然而,为了产生奇点,需要开发 AGI,而这是否可能是目前相当热门的争论此外,必须设计一种从比特和字节中创造出超人智能(或超级智能)的算法。根据定义,人类程序员无法做这样的事情,因为他/她的大脑需要能够理解超出其范围的概念。还有一种说法是智力爆炸(理论上形成技术奇点的机制)将是不可能的,因为设计挑战的难度在于使自己变得更加智能,并与其智能成比例地变大,并且设计本身的难度可能超过所需的智能来解决上述挑战。

此外,还有一些相关的理论涉及机器接管人类以及所有科幻故事。然而,如果阿西莫夫定律得到适当遵循,这不太可能发生。即使阿西莫夫定律还不够,为了避免恶意个人滥用 AGI,仍然需要一系列约束,而阿西莫夫定律是我们所拥有的最接近这一点的定律。

在人工智能的背景下,奇点是一个理论事件,其中部署了具有以下标准的智能系统。

  1. 能够提高自身智能的射程或部署另一个具有如此提高射程的系统
  2. 愿意或被迫这样做
  3. 能够在没有人工监督的情况下这样做
  4. 改进后的版本递归地支持标准 (1) 到 (3)

然后,通过归纳,该理论预测将产生一系列事件,其潜在的智力增长速度可能大大超过大脑进化的潜在速度。

这个自我完善的实体或繁殖实体的人口将如何保护人类的生命和自由是不确定的。鉴于与上述标准 (1) 至 (4) 相关的能力的性质,认为此类义务可以成为不可撤销软件合同的一部分的想法是幼稚的。与其他强大的技术一样,风险与潜在收益一样多且影响深远。

对人类的风险不需要情报。奇异性一词的使用还有其他上下文,但它们不在此 AI 论坛的范围内,但为了清楚起见,可能值得简要提及。基因工程、核工程、全球化以及将国际经济建立在有限能源的基础上,这种能源的消耗速度比地球上产生的速度快数千倍——这些是高风险技术和大规模趋势的其他例子,既带来风险又带来好处对人类。

回到人工智能,奇点理论的主要警告是它未能结合概率。尽管有可能开发出符合上述标准 (1) 到 (4) 的实体,但它可能不太可能发生,以至于在地球上所有当前使用的语言都已死后很久才会发生第一个事件。

在概率分布的另一个极端,人们很容易争辩说第一个事件已经发生的概率是非零的。

沿着这些思路,如果互联网上已经存在更智能的存在,它有多大可能会发现向低等人展示自己符合其最大利益。我们会向路过的蛆虫介绍自己吗?

“奇点”的概念是机器比人类更聪明。虽然斯蒂芬霍金认为这种情况是不可避免的,但我认为很难达到这一点,因为每个人工智能算法都需要人类编程,因此它总是比它的创造者更有限。

我们可能会知道何时人类将失去对人工智能的控制,超级智能人工智能将与人类竞争,并可能创造出更复杂的智能生物,但目前,它更像是科幻小说(又名终结者的天网)。

风险可能涉及杀死人(如自行飞行的战争无人机做出自己的决定)、摧毁国家甚至整个星球(如与核武器相关的人工智能(又名战争游戏电影),但这并不能证明这一点机器会比人类更聪明。

狭义的“奇点”指的是经济增长如此之快,以至于我们无法对过去的未来做出有用的预测。

它通常与“智能爆炸”互换使用,这就是我们所谓的强人工智能,即智能到足以理解和改进自身的人工智能。预期情报爆炸会立即导致经济奇点似乎是合理的,但反过来不一定正确。