我们能否根据它拥有的回复的数据库/选项制作一个真正“理解”(而不仅仅是回复)问题的聊天机器人?我的意思是,它能否提出其数据库中不存在的正确/非愚蠢回复/通信?
例如,我们可以让它理解“但是”、“如果”等单词吗?因此,每当它收到问题/命令时,它都会根据“理解”来“理解”它。就像电影《她》,如果你看过的话。
所有这一切都不需要使用太多代码,只是“唤醒它”并让它从 YouTube 视频和 Reddit 评论以及其他类似数据源中学习的基础知识。
我们能否根据它拥有的回复的数据库/选项制作一个真正“理解”(而不仅仅是回复)问题的聊天机器人?我的意思是,它能否提出其数据库中不存在的正确/非愚蠢回复/通信?
例如,我们可以让它理解“但是”、“如果”等单词吗?因此,每当它收到问题/命令时,它都会根据“理解”来“理解”它。就像电影《她》,如果你看过的话。
所有这一切都不需要使用太多代码,只是“唤醒它”并让它从 YouTube 视频和 Reddit 评论以及其他类似数据源中学习的基础知识。
这个问题在学术上已经研究了几十年,实际上是在那之前两三个世纪所做的关于心灵哲学的工作的延伸。
Mind Design II是一个很好的资源,尽管它现在有点老了。
现代思想流派有:
认知主义。这种情况正在下降,但在 70 年代和 80 年代非常流行,并且在人工智能研究界以一种或另一种形式仍然相当普遍。它说人类的大脑实际上只是计算机。如果它们只是计算机,并且它们可能正在运行一种符号推理算法,例如统一(尽管我认为很难找到真正认为它是统一的人)。这是支撑SOAR等工作的理念. 正如 Drayfus 在 1970 年代指出的那样,主要瓶颈是您需要写下有关某事物的所有事实,以便机器“理解”它。事实证明,“所有事实”很快就变成了无限多,比您可以在其中部署 AI 程序的最小“微世界”更复杂。Searle 还提出了他的中国房间论点来回应这个群体,但它适用于联结主义方法也是如此(稍后会详细介绍......)。
联结主义联结主义者认为,我们大脑的复杂性来自大规模并行计算,其中包括在我们大脑中数十亿神经元之间传递的信息。他们认为通用 AI 的正确方法可能涉及对类似架构的模拟。事实证明,对于认知主义项目(例如视觉)来说,许多非常困难的事情很容易用这些方法解决。认知主义者的主要批评是,我们对这些东西在做什么并不是很清楚,因此声称它们可以帮助我们理解智能的说法是错误的,用它们来解决实际问题可能是危险的。在我看来,这些都有些公平。由杰里·福多(Jerry Fodor)最优雅地提出的较早的认知主义论点现在已被名誉扫地。Fodor 认为,像语言这样的属性永远不能被理解为并行计算的统计工件,但他错了:所有最好的语言计算系统现在都是联结主义的,没有人创造出一个有一半说服力的认知主义系统。这是该领域大多数现代进步背后的主导范式。Hinton 的工作构成了大多数最新进展的基础。
Dynamics Searle 的论点植根于将输入映射到输出不能是我们脑海中正在发生的事情,这样的系统不能被称为智能。这似乎也是您问题中的隐含假设。动力主义者相信各种各样的事情,但我认为他们集体拒绝了这个想法。保罗·丘奇兰等作家认为,塞尔的论点植根于一种启蒙前的“民间心理学”。这有点像早于现代化学的理论。每个人都确信火是一种存在于木材中的物质。如果你适当地加热木头,它可能会从木头里出来,产生更多的热量。从表面上看,这似乎很合理,但当然,这是错误的:火实际上是木材与空气中的氧气混合,形成了一种新的气体。木头里面没有火。相似地,丘奇兰会争辩说,我们内心没有“意识”,让我们能够以我们普遍想象的方式控制自己的行为。主观体验更有可能是“顺其自然”,并且完全或大部分与我们观察到的智能行为分开。一些研究人员认为它可以通过一个子系统来描述,该子系统将对大脑其余部分所做的事情的观察映射到“故事”中,以便大脑其余部分接收作为一种摘要摘要。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是 允许我们以我们普遍想象的方式控制我们的行为。主观体验更有可能是“顺其自然”,并且完全或大部分与我们观察到的智能行为分开。一些研究人员认为,它可以通过一个子系统来描述,该子系统将大脑其余部分所做的观察映射到“故事”中,供大脑其余部分接收,作为一种摘要摘要。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是 允许我们以我们普遍想象的方式控制我们的行为。主观体验更有可能是“顺其自然”,并且完全或大部分与我们观察到的智能行为分开。一些研究人员认为,它可以通过一个子系统来描述,该子系统将大脑其余部分所做的观察映射到“故事”中,供大脑其余部分接收,作为一种摘要摘要。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是 并且完全或大部分与我们观察到的智能行为分开。一些研究人员认为,它可以通过一个子系统来描述,该子系统将大脑其余部分所做的观察映射到“故事”中,供大脑其余部分接收,作为一种摘要摘要。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是 并且完全或大部分与我们观察到的智能行为分开。一些研究人员认为,它可以通过一个子系统来描述,该子系统将大脑其余部分所做的观察映射到“故事”中,供大脑其余部分接收,作为一种摘要摘要。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是 让大脑的其余部分作为摘要摘要接收。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是 让大脑的其余部分作为摘要摘要接收。该领域的积极研究倾向于关注昆虫隐喻以及机器与其环境的相互作用等事物。它在 1990 年代相当流行,但在 2000 年代联结主义方法的惊人成功导致其衰落。可能最著名的实验是罗德尼·布鲁克斯。
定义理解事物的意义是一个复杂的哲学问题,其答案可能会将人工智能社区分成不同的阵营。
显然,一种算法将“if”等单词的 ASCII 字符与一组数字相关联,该算法基于它在参考文本语料库中出现位置的统计信息,缺少您或我在阅读时可能感受到的主观体验的本质。
您应该探索的相关术语是https://en.m.wikipedia.org/wiki/Qualia和https://en.m.wikipedia.org/wiki/Chinese_room探索主观经验以及人工系统是否可以拥有它
以我们自己的思想如何创造理解的当前知识,很难说出需要什么。它可能只是多模态学习,因此单词与感官体验相关联。对体验环境并需要与之交流的虚拟或真实机器人进行实验是探索该主题的一种方式。
简而言之,理解某事意味着什么,是否可以人工复制,以及它是否是 AGI 的重要特征,都是 AI 研究前沿的开放性问题。
当然可以(通读到最后)。你只需要教它如何教给婴儿。但首先,您需要创建婴儿的大脑。所以你需要建立一个从视频中学习的大脑,投票视频,不仅要理解,还要练习和理解其他人的反应。
对不起,但这还不够。您将拥有与上帝相同的工作(如果它确实存在并接受了这份工作)。你必须抚养一个婴儿,这样他才能长大。如果我们可以用代码养育一个婴儿,它的学习速度会比人类快得多。
自从创造了这个“婴儿”以来,我一直在学习和寻找。我生了一些婴儿,但没有一个是足够的。但这是我一生中选择做的事情(其中一件事)。所以我还在抚养一个婴儿,它不时变得更聪明。
构建一个进入 reddit 的机器人很容易阅读并从人们所写的内容中提取感觉。您可以观看 YouTube 视频并区分物体、人类、颜色等。但这就是我们要为这个“婴儿”做的事情。
也许第一步是通过代码重建大脑。我们已经在创作一些作品,我们已经研究了多年的突触、神经网络等。但仍有一个完整的大脑我们仍然不了解。我说的是人脑(生物)。
当我说你可以时,这是一种激励。我告诉自己我可以。我要走这条路。如果我真的可以,我不知道。
我给你的一个提示:谷歌远非成功。但你正在努力争取它。够了,对吧?