与人工智能相关的社会风险是什么?

人工智能 社会的 新卢德主义 风险管理
2021-10-26 02:22:50

与人工智能的广泛使用相关的社会实际风险是什么?在军事环境中使用人工智能之外。

我不是在谈论意外风险或无意行为——例如,无人驾驶汽车意外撞车。

当我们看到人工智能的使用被广泛和流行时,我并不是在谈论任何过渡效应。例如,我听说人工智能的广泛使用将使许多现有工作变得多余,使许多人失业。然而,任何重大的技术飞跃都是如此(例如,汽车扼杀了马厩/马蹄铁行业)。从长远来看,技术的飞跃几乎总是最终创造出比失去的更多的就业机会。

我对非军事意义上的人工智能的广泛使用直接产生的长期风险和不利影响感兴趣。有没有人推测过人工智能一旦流行起来会产生什么样的社会或心理影响?

4个回答

最大的风险是算法偏差。随着越来越多的决策过程由人工智能系统承担,计算机将承担责任;负责人只会声称是电脑做的,他们不能改变它。

真正的问题是机器学习的训练数据通常包含偏差,通常会被忽略或无法识别。BBC 电台有一个故事,说某人的护照照片被算法拒绝了,因为据说他张着嘴。然而,他属于一个嘴唇比白人大的种族,但机器无法应对。

有很多类似的事情发生的例子:如果你属于少数群体,机器学习可能会导致你被排除在外,因为算法将在过于受限的训练数据上进行训练。

更新:这是一个关于我提到的例子的 BBC 新闻报道的链接。

已经意识到的一个风险是:大型在线供应商认为他们已经在他们的“帮助”页面中实施了人工智能,因此他们可以(尝试)使无法找到真正能思考的人。而且由于人工愚蠢(AS)通常会向客户提供与问题完全无关的文章,因此在问题得到解决之前(如果有的话),任何足够坚持不懈地追求它的人都会对公司非常生气。而且由于太多人被动接受这种滥用,公司没有动力更合理。换句话说,“AS”正在降低我们对客户服务的期望。

另一个是 JavaScript,旨在防止由于错误或过时而拒绝合法输入的 Web 表单中的无效名称、电话号码和电子邮件地址。

恕我直言,最大的风险是人工智能可以让人变得懒惰。如果您可以向 AI 寻求任何问题的答案,您有什么动机自己想办法找出答案?我遇到过很多年轻人,他们不使用计算器就无法将两个三位数相加或相乘。当可以将大量数据转储到人工智能中时,人工智能会告诉你它在数据中找到的结构,而没有解释它是如何找到结构的,这样你就可以自己做,人工智能赢了,你输了。

  • 卸下责任可能是最大的危险。

算法偏差可能是机器学习的核心问题,它可以被识别和减轻。

将责任转移给机器人或算法需要有道德维度的有意选择。正如学者乔安娜·布莱森所说:

在人类中,意识和伦理与我们的道德相关,但这是因为我们的进化和文化历史。在人工制品中,道德义务不受逻辑或机械必要性与意识或感觉的联系。这是我们不应该让人工智能负责的原因之一:我们不能以有意义的方式惩罚它。
资料来源:人工智能伦理:人工智能、机器人和社会

在恶意的意义上,将代理转移到可能会做对我有益的有害事情的自动机上,我可以说“我没有做出决定,也不对结果负责”。(在我看来,公司越来越多地这样做了。)

关于Unchained:一个关于爱情、失落和区块链的故事,有一个非常好的短篇小说,其中自动出租车开发了新颖的策略,这些策略对人类具有意想不到的道德维度。