我遇到了 IBM 提供的称为神经架构搜索的东西。你给它一个数据集,它会输出一个你可以训练的初始神经架构。
神经架构搜索(NAS)是如何执行的?他们是使用启发式方法,还是使用元机器学习?
如果您有任何关于 NAS 的论文,如果您能提供它们的链接,我将不胜感激。
我遇到了 IBM 提供的称为神经架构搜索的东西。你给它一个数据集,它会输出一个你可以训练的初始神经架构。
神经架构搜索(NAS)是如何执行的?他们是使用启发式方法,还是使用元机器学习?
如果您有任何关于 NAS 的论文,如果您能提供它们的链接,我将不胜感激。
您可以说 NAS 适合元学习或元机器学习的领域。
我从笔记中提取了 NAS 论文,这是我个人觉得非常有趣的论文/讲座合集。它按大致的时间降序排列,***
意味着有影响力/必须阅读。
Quoc V. Le 和 Barret Zoph 是该主题的优秀作者。
这里有两篇评论文章:
Elsken, Metzen, Hutter:神经架构搜索:一项调查(2019),机器学习研究杂志 20, 1-21
He, Zhao, Chu:AutoML:最新技术概览(2019)
神经架构搜索 (NAS)是一种自动化人工神经网络设计(即超参数值的选择)的方法。有不同的方法来搜索神经网络架构的空间。例如,您可以使用强化学习或进化(或遗传)算法。
查看 Barret Zoph 和 Quoc V. Le 的论文Neural Architecture Search with Reinforcement Learning (2017),作者使用强化学习(特别是REINFORCE)进行训练,这是一种循环神经网络(“控制器”)来生成(卷积和循环)神经网络架构,以便最大限度地提高验证数据集上生成架构的预期准确性。他们使用这种方法取得了一些好的结果。
另请参阅Hieu Pham、Melody Y. Guan、Barret Zoph、Quoc V. Le 和 Jeff Dean(其中包括NAS的一些作者)的Efficient Neural Architecture Search via Parameter Sharing (2018),与NAS类似,但更高效,因此缩写为 ENAS(高效 NAS)。