来自维基百科:
镜像神经元是一种神经元,当动物行动时以及当动物观察到另一个动物执行的相同动作时都会触发。
镜像神经元与模仿学习有关,这是当前现实世界 AI 实现中缺少的一个非常有用的功能。具有镜像神经元的智能体无需从输入输出示例(监督学习)或奖励(强化学习)中学习,而是能够通过简单地观察其他智能体,将它们的运动转换到自己的坐标系来学习。关于计算模型,我们对这个主题有什么看法?
来自维基百科:
镜像神经元是一种神经元,当动物行动时以及当动物观察到另一个动物执行的相同动作时都会触发。
镜像神经元与模仿学习有关,这是当前现实世界 AI 实现中缺少的一个非常有用的功能。具有镜像神经元的智能体无需从输入输出示例(监督学习)或奖励(强化学习)中学习,而是能够通过简单地观察其他智能体,将它们的运动转换到自己的坐标系来学习。关于计算模型,我们对这个主题有什么看法?
本文从 Hebbian 学习的角度来描述镜像神经元,这是一种在 AI 中广泛使用的机制。我不知道文章中给出的公式是否曾经在计算上实现过。
无论是“我接球”还是“他接球”,所有存储的“接球”和“球”实例都将被弱激活,而“接球”将被强激活。这不符合“镜像”的条件吗?如果你也知道“我有一只胳膊”“他有一只胳膊”等等,那么当“他拿几块”时,不难想到“我可以拿几块”。
实际上,我们确实有很多类似的东西,3-D 电影实例的动作捕捉几乎立即浮现在脑海中。如果我考虑一下,问题不是观察另一个演员的情况,计算机相对擅长做这件事已经有了我们拥有的图像识别软件的数量,而是一个理解一个动作是否产生好的结果作为一个好的结果的问题net 这是计算机无法做到的,因为它不是单节点网络问题。例如,我们已经编写了一台计算机来理解人类语言(可以说是沃森),但即使是沃森也不理解说“f***”是不好的概念。(看那个,这是一个有趣的支线故事。)
但关键是,学习算法在某种意义上并不是真正的学习,因为计算机目前没有“好的结果”的感觉,因此在这个阶段,观察学习在某种意义上非常局限于“猴子看,猴子做”。
也许我读过的最接近的事情是网络上的消防搜索和救援机器人,当其中一个被摧毁时,它们会相互广播,因为机器人会知道该区域是他们必须避免的地方。
否则,我认为这是观察学习的问题。一个人可以观察到打人通常会让你反击,计算机会观察并模仿动作,无论好坏。