可以让 AI 保持思路吗?

人工智能 人工智能设计 聊天机器人 思想向量
2021-10-31 04:39:30

这主要是指类人或聊天机器人 AI,但也可能用于其他应用程序(数学或其他东西?)。

基本上,我突然想到,当我在思考或说话时,有一个持续的反馈循环,在这个循环中,我正在根据我最近的情况制定接下来要使用哪些单词、要形成哪些句子以及要探索哪些概念陈述和对话或独白的流程。我不仅对外界刺激做出反应,而且对自己也做出反应。换句话说,我通常保持一个思路。

人工智能可以做到这一点吗?如果有,是否已经证明?到什么程度?在键入此内容时,我发现了“思想向量”一词,我认为它可能是相关的。

如果我没看错的话,思想向量与允许 AI 存储或识别不同概念之间的关系有关。如果我不得不猜测,我会说如果人工智能对概念之间的关系缺乏深入的理解,那么它就不可能保持连贯的思路。这是一个正确的假设吗?

(ps。根据我对 AI 聊天机器人的有限经验,它们似乎是完全按脚本编写的,或者是随机的且经常不连贯,这让我相信它们不会保持思路)

2个回答

首先,对于几乎每一个“可以把 AI 做成 X”形式的问题,最明显和最直接的答案是“我们不知道。可能,但如果还没有完成,我们真的不确定。”

同样重要的是要理解,从技术的角度来看,没有一种“东西”叫做“人工智能”。有很多很多不同的技术,它们之间的关系松散(充其量),并且通常在“人工智能”的总体标题下归为一类。

综上所述,是的,我们一直在为各种“人工智能”添加记忆,甚至是长期记忆。最近最值得注意的例子是循环神经网络 中LSTM的出现。

此外,一些关于“认知架构”的工作集中在记忆的使用上。有关这方面的更多信息,请查看 ACT-R 和/或 SOAR 并阅读其中一些论文。

我不清楚的是,是否有人尝试将这些技术中的任何一种应用到聊天机器人上。如果有人有,我不会感到惊讶,但我不能随便引用任何这样的研究。

可以说,“保持思想”是计算的基本要求,在图灵机的上下文中可以表示为一串二进制数字。

“基本上,我突然想到,当我在思考或说话时,会有一个持续不断的反馈循环,在这个循环中,我会根据我最擅长的事情来制定接下来要使用的单词、要形成的句子以及要探索的概念。 “最近的陈述和对话或独白的流程。我不仅对外部刺激做出反应,而且对自己做出反应。换句话说,我通常保持一个思路。”

这听起来很像递归函数。

我对聊天机器人问题的分析是,它揭示了机器人的推理质量很差,而不是缺乏推理。这与其说是算法保持思路的原始能力的问题,因为“虽然思路”是函数本身,但算法的质量,从某些方面来说,是算法的“人性”。输出。