作为大学研究项目的一部分,我想了解你们中的许多人认为与监管人工智能相关的风险是什么。例如监管是否在限制进展方面风险太大,或者在不知情的监管方面风险太大。
与监管人工智能相关的风险是什么?
我认为监管某事不一定会导致该监管事实上成为“风险”。
事实上,监管——包括过度监管——可能有助于从业者之间的对话,最终可能对监管者、公众和从业者本身进行教育。
我对您的调查的回答很可能是“这取决于...”或“无风险”,这并不是说这不是障碍,而是说它本身不是“风险”。
监管风险?
正如您在调查中提到的,人们普遍认为,监管 AI 研究的主要问题是其他方可能会落后。
我们应该规范它吗?可以做到吗?
你不能真正“规范”技术发展,就像你可以规范其他一些事情一样。除了没有全球治理可以对国家实施这项监管这一事实之外,您无法真正监管某人的研究,而无法控制人们的想法:您只需要一支笔/纸/电脑来进行任何数学研究/人工智能。
NSA 在一场名为“加密战争”的传奇中试图以国家安全为由对加密进行监管。他们失败了。
到底什么是人工智能?我们将如何到达那里?会是什么样子?
老实说,从你调查中问题的措辞来看,我的印象是你并不真正理解人工智能导致的假设存在风险。就我个人而言,我并不真正认同他们的论点,但无论如何,如果出现这样的超级智能特工,问题不在于“哦,不,我的城市被摧毁”或“哦,没有那么多人被杀” ,但更多的是“全人类在不知不觉中被奴役”或“一切都死了”。我们认为这可能会发生,因为我们假设人工智能是无所不能的,并且我们将自己的负面品质投射到这个具有未知力量的未知代理上。主要是真的害怕。
这都是猜测,根据定义,你无法预测比你更聪明的代理的行为,所以从字面上看,关于这个话题的每一条评论都纯粹是没有根据的猜测。唯一真实的是我们不知道。
AI 的另一个方面是危险的,它更关注人类如何使用它:即面部识别、自动化武器系统、自动化黑客攻击。这些都是更紧迫的问题。
我们应该做什么?我们被迫研究人工智能,因为任何一方都不能落后,但与此同时,我们正在将自己推向一个危险的未来:这是第 22 条军规……
共识和当前的实践表明,每个研究人员都会公开我们的结果。与其他学术界的研究经常被锁在付费墙后面的领域相比,ML/AI 研究是相当公开的。当然,这并不能阻止胭脂特工的可能……
我认为监管人工智能有很强的论据。主要是统计驱动算法中的无意(或有意)偏见,以及可以将责任转移到无法在其越界处受到有意义惩罚的流程的想法。此外,技术的历史,特别是自工业革命以来,强烈地验证了新卢德主义,因为新技术的实施所产生的问题并不总是可以预测的。
从这个意义上说,考虑监管既有道德上的原因,也有极小化的原因(这里指的是谨慎行事,以尽量减少最大的潜在不利影响。)
- 落后的风险
一个风险是,并非所有参与者都会遵守法规,给那些没有显着优势的人带来显着优势,但这本身并不是放弃明智监管的理由。
然而,这并不是放弃监管的理由,因为处罚至少可以起到潜在的威慑作用。
- 机会成本
不是风险,而是驱动。“把钱留在桌面上”的想法是不实施给定的技术会放弃更大的效用,牺牲潜在的利益。
这不是无效的,但不应忽视隐藏成本。例如,即使是原始机器人的大规模部署也产生了深远的社会影响。
我的想法
人工智能已经受到间接监管。承认这一点很重要,而在我看来,在关于法律和人工智能的讨论中,这种承认是缺失的。
我假设您的问题是关于直接针对人工智能技术的法律,这体现了监管人工智能的风险之一:法律将关注技术而不是结果。
另一个担忧是,不充分或过时的法律很快会产生虚假的安全感,这可能会造成比没有法律时更危险的情况。
法律与创新
当谈到法律扼杀创新的观点时,最重要的是承认某些监管可以产生非常积极的影响。法律与创新之间并没有普遍的规律。
起搏问题和科林格里奇困境
以下基本上是 Wendell Wallach 在 Future of Life Institute 的AI Alignment Podcast中所说的,题为Machine Ethics and AI Governance with Wendell Wallach。
节奏问题是指科学发现和技术创新远远超过我们实施适当道德法律监督的能力。
Wendell Wallach 继续说,节奏问题与现在所谓的 Collingridge Dilemma 相结合,这是一个自 1980 年以来一直困扰着技术和治理领域的人们的问题,他以以下方式对其进行了定义:
虽然在技术发展的早期对其进行监管是最容易的,但在其发展的早期,我们几乎不知道它的社会影响会是什么。等到我们确实了解了技术的挑战和社会影响时,该技术将在我们的社会中根深蒂固,以至于很难改变其发展轨迹。
也可以看看:
- 维基百科上的科林格里奇困境;和
- David Collingridge对技术的社会控制, Frances Pinter 于 1980 年出版。