与深度学习 (DL) 和深度 (er) 网络相关的一切似乎都是“成功的”,至少进展非常快,并且培养了 AGI 触手可及的信念。这是大众的想象。DL 是解决如此多问题的绝佳工具,包括创建 AGI。然而,这还不够。工具是必要的成分,但通常是不够的。
该领域的领先人物正在寻找其他地方取得进展。本报告/声明收集了Yoshua Bengio、Yann LeCun和Geoff Hinton声明的链接。该报告还解释说:
DL 的主要弱点(如我所见)是:依赖最简单的模型神经元(LeCun 称之为“卡通”);使用 19 世纪统计力学和统计学的思想,这是能量函数和对数似然法的基础;以及将这些技术与反向传播和随机梯度下降等技术相结合,导致应用程序非常有限(离线,主要是批处理,监督学习),需要高素质的从业者(又名“随机研究生下降”),大量昂贵的标记的训练数据和计算能力。虽然对于可以吸引或购买人才并部署无限资源来收集数据和处理数据的大公司来说非常有用,但深度学习对我们大多数人来说既不可访问也不有用。
虽然有趣且相关,但这种解释并没有真正解决问题的要点:缺少什么?
这个问题似乎很宽泛,但可能缺乏简单的答案。有没有办法指出 AGI 缺少 DL 什么?