我们经常听到人工智能可能会伤害甚至杀死人类,因此它可能被证明是危险的。
人工智能如何伤害我们?
我们经常听到人工智能可能会伤害甚至杀死人类,因此它可能被证明是危险的。
人工智能如何伤害我们?
人们可能会害怕(或者最好是担心)人工智能有很多正当的理由,但并非都涉及机器人和世界末日的场景。
为了更好地说明这些问题,我将尝试将它们分为三类。
这就是您的问题所指的 AI 类型。一个超级智能的有意识的人工智能,将摧毁/奴役人类。这主要是科幻小说带给我们的。一些著名的好莱坞例子是“终结者”、“黑客帝国”、“奥创纪元”。最有影响力的小说是艾萨克·阿西莫夫写的,被称为“机器人系列”(其中包括“我,机器人”,也被改编成电影)。
大多数这些作品的基本前提是,人工智能将进化到有意识的地步,并将在智能上超越人类。虽然好莱坞电影主要关注机器人以及它们与人类之间的战斗,但对实际的人工智能(即控制它们的“大脑”)给予的重视不够。作为旁注,由于叙述,这个人工智能通常被描绘成控制一切的超级计算机(以便主角有一个特定的目标)。对“模棱两可的智能”(我认为更现实)的探索还不够。
在现实世界中,人工智能专注于解决特定任务!能够解决来自不同领域的问题(例如理解语音和处理图像以及驾驶...... - 就像人类一样)的人工智能代理被称为通用人工智能,并且是人工智能能够“思考”并成为意识。
实际上,我们与通用人工智能相差无几!话虽如此,没有证据表明为什么将来不能实现这一目标。所以目前,即使我们还处于人工智能的起步阶段,我们也没有理由相信人工智能不会进化到比人类更聪明的地步。
尽管人工智能征服世界还有很长的路要走,但今天有几个理由关注人工智能,但不涉及机器人!我想重点关注的第二类是当今人工智能的几种恶意使用。
我将只关注今天可用的 AI 应用程序。一些可用于恶意目的的 AI 示例:
DeepFake:一种将某人的脸强加在另一个人的视频图像上的技术。这最近在名人色情片中流行起来,可用于生成假新闻和恶作剧。来源:1、2、3 _ _ _
通过使用能够每秒识别数百万张人脸的大规模监控系统和面部识别软件,人工智能可用于大规模监控。尽管当我们想到大规模监控时,我们会想到中国,但伦敦、亚特兰大和柏林等许多西方城市是世界上受监控程度最高的城市之一。中国更进了一步,采用了社会信用体系,这是一种对平民的评价体系,似乎直接取自乔治·奥威尔 1984 年的著作。
通过社交媒体影响人们。除了以有针对性的营销和添加展示位置为目标(许多互联网公司的常见做法)来识别用户的口味之外,人工智能还可以被恶意用于影响人们的投票(等等)。来源:1、2、3。_ _ _
黑客攻击。
军事应用,例如无人机攻击、导弹瞄准系统。
这个类别是相当主观的,但人工智能的发展可能会带来一些不利的副作用。此类别与上一个类别的区别在于,这些影响虽然有害,但并非有意造成的;相反,它们是随着人工智能的发展而发生的。一些例子是:
我有没有提到所有这些都已经如火如荼?
尽管 AI 和 AGI 之间没有明确的界线,但本节更多的是关于当我们进一步走向 AGI 时会发生什么。我看到两种选择:
在第一种情况下,如果一个人工智能“流氓”,我们可以建立其他人工智能来智取并压制它。在第二种情况下,我们不能,我们注定要失败。人工智能将成为一种新的生命形式,我们可能会灭绝。
以下是一些潜在的问题:
我认为 AGI 即将到来,我们需要注意这些问题,以便将它们最小化。
除了其他答案,我想添加到 nuking cookie 工厂示例:
机器学习 AI 基本上试图实现人类描述的目标。例如,人类创建了一个运行 cookie 工厂的 AI。他们实施的目标是销售尽可能多的饼干以获得最高的利润率。
现在,想象一个足够强大的人工智能。这个 AI 会注意到,如果他对所有其他饼干工厂进行核武器攻击,每个人都必须在他的工厂购买饼干,从而提高销售额和利润。
因此,这里的人为错误不会因为在算法中使用暴力而受到惩罚。这很容易被忽视,因为人类没想到算法会得出这个结论。
我最喜欢的人工智能伤害场景不是高智商,而是低智商。具体来说,灰粘假设。
这就是一个自我复制的自动化流程运行异常并将所有资源转换为自身副本的地方。
这里的重点是,人工智能在具有高智能或一般智能的意义上并不“聪明”——它只是非常擅长单一的事情,并且具有指数级复制的能力。