我觉得如果不是全部的话,很多词都直接映射到某种内在的主观体验,映射到物理对象、心理感觉、过程或其他某种抽象事物。鉴于机器没有qualia也没有这种映射,即使它们被要求回答大量统计训练的问题,它们真的能理解任何事情吗?
没有素质就可以理解语言吗?
我将在这里引起争议;所以如果你不同意这个答案,请不要投反对票。
您的问题预设了机器不具备或不具备感质,而感质是真正理解所必需的。鉴于我们并不真正知道“理解”某事意味着什么,甚至“意义”本身的含义也绝不是一个已解决的问题,它可能过于具体。
在语言学的一个分支中,一个词的含义是由它的用途和周围词的上下文来定义的。我们可以大胆猜测,儿童通过接触语言以及经验与相应声音的相关性来获得单词的含义。AFAIK 的详细工作原理尚未完全理解。但是,在一个新生的人类身上,没有什么“固有的”东西可以让它“理解”任何东西。
如果是这样的话,那么我们可以训练机器做同样的事情。显然,这将是一个漫长而乏味的过程,而且我们可能需要数年时间才能熟练使用语言,这可能是有原因的。但是,如果我们将感官输入与语言话语相关联,那么一个足够复杂的学习算法可能能够从这些话语的使用方式中获得一些意义。
当然,这里有很多未知数。这是因为该主题跨越了各个领域,从儿童语言习得、语料库语言学、学习心理学等等。据我所知,这些领域都还不够先进,无法阐明这个问题。存在抽象词和概念的整个问题。我们如何在不知道它们是什么的情况下将连续的声音流分割成离散的单元(音素)?有了所有这些复杂性,我开始理解为什么乔姆斯基选择他的语言习得设备以避免感到沮丧...... :)
所以,回答你的问题:是的,这应该是可能的。一台能够模拟人类学习的正确设置的机器将把自己的语言结构映射到外部世界的经验。如果我们将这种映射称为这些结构的“意义”,那么机器可以学习这个,并且可能“理解”语言。如果我们用人工智能达到那个阶段是另一个问题。
我们甚至不知道究竟是什么感受质,所以很难确定。但我确实认为:很多人类学习都是体验式的,植根于我们与物理世界的互动。也就是说,我们看到、闻到、听到和感觉到事物,我们通过动觉意识、我们拥有的平衡感等来体验重力和我们在世界上的方向。因此,虽然在数据中心的服务器上运行 AI像人类一样“聪明”,我认为期望它拥有与人类相同的知识和意识是不合理的,仅仅因为它从未经历过很多事情。
因此,如果您想谈论,比如说,“看到红色”并提及 qualia,那么当然可以。我认为说机器会丢失一些“人类”的东西是有一定道理的,而那是指感受质。
OTOH,我认为低估我们的人工智能最终将变得多么“智能”是错误的,即使它们没有体现出来。我们只需要记住,他们的智力可能与我们的不太一样,因为他们本质上生活在一个不同的世界里。
我认为具有自然语言能力的“成功”强人工智能——比如可以产生“良好”的无监督文学翻译,或通过严格的图灵测试——必须包含在用于构建其视觉模型的数据语料库中,听觉和可能的触觉数据。模拟人类所具有的那种代理和意图可能也是必要的——因此训练中的人工智能有机会移动模拟的自我来改变它接收到的输入。例如,我怀疑仅在文本数据上训练它总是不够的。如果它能够获取感官信息并学会将其与语言符号适当地联系起来,它可能能够以一种我们发现难以与我们自己的理解区分开来的方式来学习语言的含义,
当然,我们距离拥有足够强大的硬件以尝试如此全面的思维建模项目还有很长的路要走。但我认为感受质问题原则上不会妨碍对语言的“真正”理解。它只是扩展 AI 可用的符号,用于对语言所代表的世界进行建模,使其与人类在他们脑海中使用的符号(包括由感官输入产生的符号)充分匹配。
伟大的问题同样合格的答案。我相信理解语言是肯定的,而 bugaboo(一种非知识性的白话)就是理解。是解释性的吗?推断?达到什么目的?算法对语言形式的命令的响应将取决于编程到其中的鲁棒性。然而,感受质意味着由于感官刺激而产生的主观体验,无论是由记忆还是我们人类的一种感官触发。然后它引出了一个问题,计算机能否共同体验,我们如何知道这一点。其次,是否所有算法都受到编程偏差及其可用数据存储的影响?Facebook 和谷歌的新闻表明,程序化偏见是非常真实的。此外,Qualia 是一种新兴特征,所以我看不到计算机和它的作用