特征选择是选择贡献最大的特征子集的过程。
特征提取允许获取给定特征集中实际不存在的新特征。
表征学习是学习一种贡献最大的新表征的过程。
我看不出特征提取和表示学习之间没有区别。
特征提取和表示学习一样吗?如果不是,它们有什么不同?它们仅在应用程序级别上有所不同吗?
特征选择是选择贡献最大的特征子集的过程。
特征提取允许获取给定特征集中实际不存在的新特征。
表征学习是学习一种贡献最大的新表征的过程。
我看不出特征提取和表示学习之间没有区别。
特征提取和表示学习一样吗?如果不是,它们有什么不同?它们仅在应用程序级别上有所不同吗?
特征提取 (FE) 与表示学习 (RL) 不同,但它们相似且相关。
您准确地描述了特征提取通常指的是什么,即从现有特征或原始数据(例如图像)中提取(新)特征的过程。例如,假设您有一个与汽车相关联的数据集。您的数据集中只有两个特征:距离和速度。但是,从这两个中,您可以提取第三个特征,例如加速度。因此,可以使用固定算法(例如用于降维的 PCA 或SIFT)或手动执行特征提取。
表示学习是从数据中自动提取特征的所有技术的集合(即它们学习特征或表示,因此称为表示/特征学习)。因此,例如,在 ImageNet 上训练的卷积神经网络可以(和/或需要)学习一般特征以解决相应的分类任务。( Goodfellow 等人的《深度学习》一书的第 9 章更多地讨论了这个主题。)这些特征是从数据中学习的(这就是 CNN 是数据驱动的原因),它们以后可以用于迁移学习 (TL) ,即TL是基于神经网络学习一般的思想可用于解决其他任务(有时称为下游任务,尤其是在自我监督学习的背景下)的数据表示(因此是特征的同义词)。
Yoshua Bengio 等人。将表示学习定义如下
学习数据的表示,在构建分类器或其他预测器时更容易提取有用信息
因此,RL 是 FE 的一个子集,因为 RL 也提取特征,但 RL 强调自动提取特征。