在当前由 NN 推动的人工智能研究热潮中,独立于我选择的论文,NN 总是自己训练的。当然,有些架构将 CNN 和 RNN 或 LSTM 结合起来,可以帮助解决多个交互问题(例如用人类可读的文本片段标记图像),但独立于此,它们总是自己学习。
- 监督网络只是得到一堆例子来学习。
- 在学会正确行走之前,强化算法在虚拟空间中运行了数百次。
这可能听起来很傻,但没有人帮助他们,也没有人陪他们玩。儿童、研究人员、小狗、海豚……我们所知道的所有智能生物都在相互作用。学习的形式有很多种,其中一种非常重要的就是社会学习,其中包括观察学习。我们一直在模仿、复制和向他人学习。还有一种看待知识的新想法表明,我们并不像我们的文化可能教会我们认为的那样独立。这种知识真正存在于个体之间的连接中,而不是每个代理本身的内部,就像神经元的连接是大脑工作的原因,而不是神经元本身。
学习代理之间的这种互动难道不是非常有价值吗?如果你把 5 个智能体放在一个房间里(NN 一个基于知识的智能体,一个简单的预编程智能体等),让它们通过观察和启发相互学习,会产生什么效果?
我不是在谈论集成学习,因为这只是将几个假设放在一起并取所有结果的平均值。我说的是一种复杂的代理在学习过程中相互交互的方式。
有没有关于这个想法的研究?如果有,结果如何?这是我找到的唯一一个: