将 AlphaGo 与人类玩家进行比较是否公平?

人工智能 哲学 游戏-ai 阿尔法戈
2021-11-01 08:52:54

与经历数百万次迭代的系统相比,人类玩家玩的游戏有限。当我们知道经验随着游戏数量的增加而增加时,将 AlphaGo 与世界排名第一的玩家进行比较真的公平吗?

4个回答

将 AlphaGo 与人类玩家进行比较是否公平?

取决于比较的目的。

如果我们比较的是赢得围棋比赛的能力,那么是的。

如果我们比较学习能力,那么也许这取决于任务。AlphaGo 和类似的系统只能在描述良好的有限领域中学习。可能与感觉学习有一个类比(理论上甚至可以取一小块脑组织并在其上运行类似于 AlphaGo 的学习过程的算法)。

一般来说,AlphaGo 和其他强化学习成功使用的方法是“试错加函数逼近”。它似乎类似于感知和运动技能,例如物体识别或骑自行车,而不是人类玩它们时的推理技能和游戏,后者经历了更多认知和意识层,在 AlphaGo 等 RL 系统中没有真正的模拟.

与经历数百万次迭代的系统相比,人类玩家玩的游戏有限

这是机器学习此类任务的优势。它同样适用于其他具有简单规则的模拟环境。如果你的目标是在这样一个领域拥有最熟练和最佳的导航,那么现在的含义是你不会通过多年的学习来训练人类专家,而是编写模拟器并训练类似 AlphaGo 的机器。

这与决定汽车和道路比步行或马和手推车对于一般人群的长途旅行更好的解决方案没有什么不同。一个比另一个优势的基础是什么并不重要,评估是成本/收益,它解析为一个可比较的数字。

然而,将 AlphaGo 评估为比人类更好的通用学习引擎是错误的。人类不必通过数以百万计的详细模拟完全工作这一事实很重要。这意味着关于人类如何学习的一些东西仍然没有被学习机器所覆盖。其中一些事情已经被理解和讨论——例如,能够直观地关注学习内容的重要方面、推理环境的能力、类比学习或从其他领域迁移学习的能力。

是的。如果我们将计算机与人类进行比较,我们应该考虑到计算机可以每天 24 小时工作并且比人类更快的事实。这是计算机相对于人类的最大优势。

如果您阅读国际象棋人工智能论文的摘要,通常会指出人类“搜索”国际象棋博弈树的效率比计算机要高得多,这就是为什么这么多年来在国际象棋中击败顶尖人类如此困难的原因。(人类的效率可能与直觉和判断有关,这很难复制。人工智能评估的“置信度”是解决这些问题的一种方法,“蒙特卡罗”也是如此。但同样重要的是要注意人类是他们的“搜索”的深度和广度更加有限,这就是为什么现在我们有了正确的算法,人类再也无法获胜。)

公平吗?

也许更突出的问题是:

将 AlphaGo 与人类玩家进行比较有用吗?

最肯定的是,因为它告诉我们,我们有时被称为“强窄人工智能”,它可以在一项任务中胜过人类。

AlphaGo 击败李世石之所以重要,是因为围棋的复杂性、围棋博弈树的难处理性,以及计算机以前对高水平人类围棋棋手无效的事实。

这种人类与人工智能的评估并不严格属于“图灵测试”(模仿游戏),它确实完全属于普罗泰戈拉的格言“人是万物的尺度”。

这一点很关键,因为智能是一个频谱,而在棘手问题(由于其规模而无法完全解决的问题)的背景下,衡量智能的强度是两个智能体(无论是人类还是人工智能)的相对强度的函数。

这种相对评估是我们所拥有的,对于某些问题我们可能拥有的全部。

人类的问题不在于我们不聪明,而在于我们的思维有认知限制。因此,为了解决某些问题,智能机器很有用。

比较时没有公平性。您为性能定义一个度量,然后比较该度量的值。

玩 GO 游戏的一个明智的衡量标准是“获胜的游戏数”,而不管对系统开发、计算或样本效率的任何投资。AlphaGo 目前在这个衡量标准上名列前茅。

另一个明智的衡量标准可能是“训练期间在样本效率限制下赢得的比赛次数”。正如其他人指出的那样,这样的措施可能对人类更加有利。