我对强化学习 (RL) 的模糊理解是,它与监督学习非常相似,只是它会根据数据/活动的连续馈送进行更新,这对我来说听起来与 AutoML 非常相似(我已经开始注意到它正在被使用)。
他们使用不同的算法吗?RL 和 AutoML 之间的根本区别是什么?
我正在为那些了解技术但不经常使用机器学习工具的人解释一下。
我对强化学习 (RL) 的模糊理解是,它与监督学习非常相似,只是它会根据数据/活动的连续馈送进行更新,这对我来说听起来与 AutoML 非常相似(我已经开始注意到它正在被使用)。
他们使用不同的算法吗?RL 和 AutoML 之间的根本区别是什么?
我正在为那些了解技术但不经常使用机器学习工具的人解释一下。
自动化机器学习( AutoML ) 是一个总称,包含一组技术(例如超参数优化或自动化 特征工程),用于自动化机器学习算法和模型的设计和应用。
强化学习 (RL)是机器学习的一个子领域,涉及在环境中做出决策和采取行动以最大化(长期)奖励(这是所谓的 RL 代理的目标)的任务。强化学习(至少部分)基于动物(包括人类)的学习方式。例如,训练狗执行某项任务的常用方法是在它采取正确动作时给予食物奖励(例如,跳跃,如果您希望狗在您用手做出特定手势时跳跃) . 在这种情况下,RL 代理是狗,狗需要执行的任务(例如跳跃)是环境,食物是奖励,目标是获得食物。
鉴于强化学习 (RL) 是机器学习的一个子领域,那么原则上,AutoML 也可用于自动化 RL 算法、模型或代理的设计。例如,如果您使用神经网络来表示策略(确定在环境中采取何种操作的函数),那么您可以潜在地使用 AutoML 来找到最合适的架构(例如,最合适的层数)对于这个神经网络。
RL 可以在神经架构搜索 (NAS) 的上下文中使用,它是一种自动化的 ML。模型搜索执行给定任务的架构。这项任务的执行情况如何指导下一次通过时如何修改(改进)架构。它可以工作,但计算量很大(想想数百个 GPU)。
参见例如: