人工智能如何伤害我们?

人工智能 哲学 社会的 新卢德主义
2021-11-15 19:24:15

我们经常听到人工智能可能会伤害甚至杀死人类,因此它可能被证明是危险的。

人工智能如何伤害我们?

4个回答

tl;博士

人们可能会害怕(或者最好是担心)人工智能有很多正当的理由,但并非都涉及机器人和世界末日的场景。

为了更好地说明这些问题,我将尝试将它们分为三类。

有意识的人工智能

这就是您的问题所指的 AI 类型。一个超级智能的有意识的人工智能,将摧毁/奴役人类。这主要是科幻小说带给我们的。一些著名的好莱坞例子是“终结者”“黑客帝国”“奥创纪元”最有影响力的小说是艾萨克·阿西莫夫写的,被称为“机器人系列”(其中包括“我,机器人”,也被改编成电影)。

大多数这些作品的基本前提是,人工智能将进化到有意识的地步,并将在智能上超越人类。虽然好莱坞电影主要关注机器人以及它们与人类之间的战斗,但对实际的人工智能(即控制它们的“大脑”)给予的重视不够。作为旁注,由于叙述,这个人工智能通常被描绘成控制一切的超级计算机(以便主角有一个特定的目标)。对“模棱两可的智能”(我认为更现实)的探索还不够。

在现实世界中,人工智能专注于解决特定任务!能够解决来自不同领域的问题(例如理解语音和处理图像以及驾驶...... - 就像人类一样)的人工智能代理被称为通用人工智能,并且是人工智能能够“思考”并成为意识。

实际上,我们与通用人工智能相差无几!话虽如此,没有证据表明为什么将来不能实现这一目标。所以目前,即使我们还处于人工智能的起步阶段,我们也没有理由相信人工智能不会进化到比人类更聪明的地步。

恶意使用人工智能

尽管人工智能征服世界还有很长的路要走,但今天有几个理由关注人工智能,但不涉及机器人!我想重点关注的第二类是当今人工智能的几种恶意使用。

我将只关注今天可用的 AI 应用程序一些可用于恶意目的的 AI 示例:

  • DeepFake:一种将某人的脸强加在另一个人的视频图像上的技术。这最近在名人色情片中流行起来,可用于生成假新闻和恶作剧。来源1、2、3 _ _ _

  • 通过使用能够每秒识别数百万张人脸的大规模监控系统面部识别软件,人工智能可用于大规模监控。尽管当我们想到大规模监控时,我们会想到中国,但伦敦亚特兰大和柏林等许多西方城市是世界上受监控程度最高的城市之一中国更进了一步,采用了社会信用体系,这是一种对平民的评价体系,似乎直接取自乔治·奥威尔 1984 年的著作。

  • 通过社交媒体影响人们。除了以有针对性的营销和添加展示位置为目标(许多互联网公司的常见做法)来识别用户的口味之外,人工智能还可以被恶意用于影响人们的投票(等等)。来源1、2、3_ _ _

  • 黑客攻击

  • 军事应用,例如无人机攻击、导弹瞄准系统。

人工智能的不利影响

这个类别是相当主观的,但人工智能的发展可能会带来一些不利的副作用。此类别与上一个类别的区别在于,这些影响虽然有害,但并非有意造成的;相反,它们是随着人工智能的发展而发生的。一些例子是:

  • 工作变得多余随着人工智能变得更好,许多工作将被人工智能取代。不幸的是,对此没有多少可以做的事情,因为大多数技术发展都有这种副作用(例如农业机械导致许多农民失业,自动化取代了许多工厂工人,计算机也是如此)。

  • 加强我们数据中的偏差这是一个非常有趣的类别,因为人工智能(尤其是神经网络)仅与他们训练的数据一样好,并且有延续甚至增强数据中已经存在的不同形式的社会偏见的趋势。有许多网络表现出种族主义和性别歧视行为的例子。来源1、2、3、4 _ _ _ _ _

短期

  • 物理事故,例如由于工业机械、飞机自动驾驶仪、自动驾驶汽车。特别是在极端天气或传感器故障等异常情况下。通常,人工智能在未经广泛测试的情况下会表现不佳。
  • 社会影响,例如减少工作机会,弱势群体的障碍。贷款、保险、假释。
  • 推荐引擎越来越多地操纵我们来改变我们的行为(以及强化我们自己的“小世界”泡沫)。推荐引擎通常会向幼儿提供各种不合适的内容,通常是因为内容创建者(例如在 YouTube 上)使用正确的关键字填充看起来对儿童友好。
  • 政治操纵......说得够多了,我想。
  • 对隐私侵犯的合理否认既然人工智能可以阅读你的电子邮件,甚至可以为你打电话,那么人们很容易让人类对你的个人信息采取行动,并声称他们有一台电脑来做这件事。
  • 将战争变成电子游戏,即用没有任何危险且远离伤亡的人远程操作的机器代替士兵。
  • 缺乏透明度我们相信机器可以做出决定,而几乎没有任何手段来获得决定背后的理由。
  • 资源消耗和污染。这不仅仅是一个人工智能问题,但人工智能的每一次改进都在创造对大数据的更多需求,这些共同推动了对存储、处理和网络的需求。除了电力和稀有矿物的消耗外,基础设施需要在其数年的使用寿命后进行处置。
  • 监控——随着智能手机和监听设备的普及,这里有一座数据金矿,但要筛选的数据太多了。让 AI 来筛选它,当然!
  • 网络安全——网络犯罪分子越来越多地利用人工智能来攻击他们的目标。

我有没有提到所有这些都已经如火如荼?

长期

尽管 AI 和 AGI 之间没有明确的界线,但本节更多的是关于当我们进一步走向 AGI 时会发生什么。我看到两种选择:

  • 要么我们开发 AGI 是因为我们对智能本质的理解有所提高,
  • 或者我们将一些看似有效但我们不太了解的东西拼凑在一起,就像现在很多机器学习一样。

在第一种情况下,如果一个人工智能“流氓”,我们可以建立其他人工智能来智取并压制它。在第二种情况下,我们不能,我们注定要失败。人工智能将成为一种新的生命形式,我们可能会灭绝。

以下是一些潜在的问题:

  • 复制和粘贴。AGI 的一个问题是它完全可以在台式计算机上运行,​​这会产生许多问题:
    • Script Kiddies——人们可以下载一个人工智能并以破坏性的方式设置参数。相关,
    • 犯罪或恐怖组织将能够根据自己的喜好配置人工智能。如果你可以下载一个人工智能,告诉它做一些研究,然后给你一步一步的指导,你就不需要找炸弹制造或生物武器方面的专家。
    • 自我复制的人工智能——有很多关于这个的电脑游戏。人工智能会像病毒一样散开并传播。处理能力越强,就越有能力保护自己并进一步传播。
  • 入侵计算资源更多的计算能力很可能对人工智能有利。人工智能可能会购买或窃取服务器资源,或者台式机和移动设备的资源。极端而言,这可能意味着我们所有的设备都变得无法使用,这将立即对 .world 造成严重破坏。这也可能意味着大量的电力消耗(而且很难“拔掉插头”,因为发电厂是计算机控制的!)
  • 自动化工厂。希望在世界上获得更多实体存在的 AGI 可以接管工厂来生产机器人,这些机器人可以建造新工厂并基本上为自己创造身体。
  • 这些是相当哲学的考虑,但有些人会争辩说人工智能会摧毁使我们成为人类的东西:
    • 自卑。如果大量的人工智能实体比最优秀的人类更聪明、更快、更可靠、更有创造力怎么办?
    • 毫无意义。随着机器人取代了对体力劳动的需求,人工智能取代了对智力劳动的需求,我们真的无事可做。没有人会再次获得诺贝尔奖,因为人工智能已经领先了。为什么还要首先接受教育?
    • 单一文化/停滞——在各种情况下(例如单一的“仁慈的独裁者”AGI),社会可能会在没有新想法或任何形式的变化(尽管可能是令人愉快的)的情况下固定在一个永久的模式中。基本上,美丽新世界。

我认为 AGI 即将到来,我们需要注意这些问题,以便将它们最小化。

除了其他答案,我想添加到 nuking cookie 工厂示例:

机器学习 AI 基本上试图实现人类描述的目标。例如,人类创建了一个运行 cookie 工厂的 AI。他们实施的目标是销售尽可能多的饼干以获得最高的利润率。

现在,想象一个足够强大的人工智能。这个 AI 会注意到,如果他对所有其他饼干工厂进行核武器攻击,每个人都必须在他的工厂购买饼干,从而提高销售额和利润。

因此,这里的人为错误不会因为在算法中使用暴力而受到惩罚。这很容易被忽视,因为人类没想到算法会得出这个结论。

我最喜欢的人工智能伤害场景不是高智商,而是低智商。具体来说,灰粘假设。

这就是一个自我复制的自动化流程运行异常并将所有资源转换为自身副本的地方。

这里的重点是,人工智能在具有高智能或一般智能的意义上并不“聪明”——它只是非常擅长单一的事情,并且具有指数级复制的能力。