我听了一个由两位有影响力的中国科学家组成的小组的演讲:王刚和于凯等人。
当被问及近期(3~5年)人工智能发展的最大瓶颈时,有硬件行业背景的于凯表示,硬件将是最根本的问题,我们应该付出大部分我们对此的关注。他给我们举了两个例子:
- 在计算机的早期开发中,我们通过芯片来比较我们的机器;
- 这些年非常流行的 ML/DL 如果没有 Nvidia 的 GPU 支持,几乎是不可能的。
基本算法早在 1980 年代和 1990 年代就已经存在,但 AI 经历了 3 个 AI 寒冬,直到我们可以使用 GPU 增强的大型服务器训练模型时才具有经验。
然后王博士评论他的意见,我们也应该开发软件系统,因为即使我们将世界上所有的 GPU 和计算结合在一起,我们也无法制造一辆自动汽车。
然后,像往常一样,我的思绪飘忽不定,我开始想,如果那些在 1980 年代和 1990 年代能够操作超级计算机的人利用当时存在的神经网络算法并用大量科学数据训练它们呢?当时的一些人显然可以尝试构建我们现在正在构建的人工智能系统。
但为什么 AI/ML/DL 成为热门话题,直到几十年后才成为经验主义?仅仅是硬件、软件和数据的问题吗?