假设我们创建了两个并行运行的单元(或程序),并将它们标记为认知单元和有意识的认知单元。
一个人有两个类似的单位。一个理性的分析器,而不是那么理性的分析器。(还有第三件事吗?)
在我看来,意识是决策的额外层。这类似于元启发式的工作方式。我们有一套决策规则,我们分析它们并动态调整这些规则。
全局搜索算法模仿有意识的行为,而局部搜索算法则作为理性思维工作。
那么,是否有可能通过如上所述的两个单元来创建一个有意识的代理?
假设我们创建了两个并行运行的单元(或程序),并将它们标记为认知单元和有意识的认知单元。
一个人有两个类似的单位。一个理性的分析器,而不是那么理性的分析器。(还有第三件事吗?)
在我看来,意识是决策的额外层。这类似于元启发式的工作方式。我们有一套决策规则,我们分析它们并动态调整这些规则。
全局搜索算法模仿有意识的行为,而局部搜索算法则作为理性思维工作。
那么,是否有可能通过如上所述的两个单元来创建一个有意识的代理?
Jürgen Schmidthuber 也有类似的意识概念,不妨看看这篇文章:
我想说,至少 25 年来,我们几乎没有基本的、有意识的学习系统。那时,我已经提出了由两个模块组成的相当通用的学习系统。
在那里,您还有一个用于决策的模块。另一个模块的工作是创建一个世界模型。
当然,哲学家会告诉你,我们不知道什么是意识,也不知道“拥有两个单位的人工智能是什么感觉”。