如今,人工智能似乎几乎等同于机器学习,尤其是深度学习。有人说,深度学习将在这一领域取代传统上对特征工程非常重要的人类专家。据说有两个突破支撑了深度学习的兴起:一方面是神经科学和神经可塑性特别是告诉我们,就像人脑具有高度的可塑性,人工网络可以用来模拟几乎所有的功能;另一方面,计算能力的提高,特别是 GPU 和 FPGA 的引入,极大地提升了算法智能,并使几十年前创建的模型变得非常强大和通用。我要补充一点,过去几年积累的大数据(主要是标记数据)也是相关的。
这些发展将计算机视觉(和语音识别)带入了一个新时代,但在自然语言处理和专家系统中,情况似乎并没有太大变化。
实现神经网络的常识似乎是一项艰巨的任务,但大多数句子、对话和短文本都包含应该从背景世界知识中得出的推论。因此,知识图谱对人工智能非常重要。神经网络可用于构建知识库,但神经网络模型似乎难以利用这些构建的知识库。
我的问题是:
知识库(例如,谷歌创造的“知识图谱”)是人工智能中一个有前途的分支吗?如果是这样,知识库可以通过哪些方式增强机器学习能力?我们如何将离散的潜在变量合并到 NLU 和 NLG 中?
为了在 DL 主导的时代生存,知识库(或总称符号方法)的方向在哪里?类似Wolfram的 z 动态知识库是新方向吗?或者有什么新的方向?
我是否错过了一些基本的东西,或者一些解决这些问题的想法?