为什么神经网络总是“自己”训练?

人工智能 神经网络 机器学习 强化学习 监督学习
2021-10-31 16:21:33

在当前由 NN 推动的人工智能研究热潮中,独立于我选择的论文,NN 总是自己训练的当然,有些架构将 CNN 和 RNN 或 LSTM 结合起来,可以帮助解决多个交互问题(例如用人类可读的文本片段标记图像),但独立于此,它们总是自己学习。

  • 监督网络只是得到一堆例子来学习。
  • 在学会正确行走之前,强化算法在虚拟空间中运行了数百次。

这可能听起来很傻,但没有人帮助他们,也没有人陪他们玩儿童、研究人员、小狗、海豚……我们所知道的所有智能生物都在相互作用。学习的形式有很多种,其中一种非常重要的就是社会学习,其中包括观察学习。我们一直在模仿、复制和向他人学习。还有一种看待知识的新想法表明,我们并不像我们的文化可能教会我们认为的那样独立。这种知识真正存在于个体之间的连接中,而不是每个代理本身的内部,就像神经元的连接是大脑工作的原因,而不是神经元本身。

学习代理之间的这种互动难道不是非常有价值吗?如果你把 5 个智能体放在一个房间里(NN 一个基于知识的智能体,一个简单的预编程智能体等),让它们通过观察和启发相互学习,会产生什么效果?

我不是在谈论集成学习,因为这只是将几个假设放在一起并取所有结果的平均值。我说的是一种复杂的代理在学习过程中相互交互的方式。

有没有关于这个想法的研究?如果有,结果如何?这是我找到的唯一一个:

1个回答

孩子们的学习方式在很多方面都受到监督确实,某些能力是遗传的(视觉系统,物体识别,很大程度上是语音识别),但是很多人类经验是作为反应的结果获得的,无论是来自环境还是来自导师(父母,老师,等等)。

只有当一个人已经学到了很多东西(我们认为微不足道,但实际上相当复杂的东西)时,社交互动才是可能的,从这个意义上说,这相当于 AlphaGo 通过玩复制网络来学习下围棋。只能执行对象或语音识别的神经网络不能交互,它们太原始了。今天几乎所有的人工智能都在这个阶段。

然而,确实,NN 学习的效率远低于人类学习,并且当前的模型与 AGI 相差甚远。我认为 RL 是最接近研究真实多智能体环境的领域。