人工智能将如何学习语言?

人工智能 机器学习 自然语言处理
2021-10-24 20:35:26

当我意识到我想不出一种方法可以教 AI 语言时,我正在思考 AI 以及它们将如何工作。孩子倾向于通过语言和图片与对象的关联来学习语言(例如,人们在狗身边说“狗”这个词,后来意识到人们说“狗”和“汽车”并学习“a " 表示等)。然而,基于文本的 AI 无法使用这种方法来学习,因为它们无法访问任何类型的输入设备。

我能想出的唯一方法是用英语(或任何它用来“说话”的语言)对每个单词和规则进行编程,但这可能需要数年时间。

有人对如何做到这一点有任何想法吗?或者如果它已经完成了,如果是这样怎么办?

顺便说一句,在这种情况下,我使用 AI 来表示具有接近人类智能的人工智能系统,并且没有先验语言知识。

3个回答

一般研究领域被称为语法归纳

它通常被构建为一个监督学习问题,输入呈现为原始文本,所需的输出呈现为相应的解析树训练集通常由正例和负例组成。

没有单一的最佳方法可以实现这一目标,但迄今为止使用的一些技术包括:

您的问题的总称称为自然语言处理 (NLP) - 人工智能下的一个主题。

该领域有许多子主题,包括语言语义、语法分析、词性标注、特定领域的上下文分析等。

为了完整起见,我将指出循环神经网络(即具有反向连接的神经网络)经常用于自然语言处理 (NLP)。这包括 Bidirectional、Jordan 和 Elman Networks 等变体。长短期记忆 (LSTM) 是一种更复杂的神经网络算法,它可以完成相同的时间和基于序列的任务,但它可以利用反向传播等标准学习方法,因为它不受“梯度消失问题”的影响。这是因为 LSTM 被巧妙地设计为“完美的积分器”,这使得在很长一段时间内计算误差梯度等变得容易得多。相比之下,使用 RNN 进行学习在理论上仍然没有很好的基础,并且很难通过诸如随时间反向传播 (BPTT) 等现有方法进行计算。在时间延迟神经网络 (TDNN) 中,其想法是在一段时间或训练序列中添加新的神经元和与每个新训练示例的连接;不幸的是,这实际上限制了在网络规模失控或开始遗忘之前您可以将多少示例输入网络,就像 RNN 一样。LSTM 具有更长的记忆(尤其是在使用神经图灵机增强时),所以这是我的首选,假设我想将神经网络用于 NLP 目的。虽然我对该主题的了解有限(我仍在尝试学习绳索),所以我可能忽略了其他重要的神经网络算法......