特征向量降维方法的例子有哪些?

人工智能 卷积神经网络 表征学习 主成分分析 降维
2021-11-08 05:54:57

给定一个预训练的 CNN 模型,我在参考和查询数据集中提取图像的特征向量,其中包含数千个元素。

我想应用一些增强技术来减少特征向量维度,以加快余弦相似度/欧几里德距离矩阵的计算。

在我的文献综述中,我已经提出了以下两种方法:

  1. 主成分分析 (PCA) + 美白
  2. 局部搜索散列 (LSH)

是否有更多方法来执行特征向量的降维?如果是这样,每个人的优点/缺点是什么?

2个回答

降维可以通过使用自动编码器网络来实现,该网络学习输入数据的表示(或编码)。在训练时,归约端(编码器)将数据降低到较低维度,重构端(解码器)尝试从中间归约编码中重构原始输入。

您可以分配编码器层输出(Li) 到所需的尺寸(低于输入的尺寸)。一经训练,Li可用作较低特征空间中输入数据的替代表示,并可用于进一步计算。

自动编码器架构

降维技术的一些例子:

线性方法 非线性方法 基于图的方法
(“网络嵌入”)
PCA
CCA
ICA
SVD
LDA
NMF
内核 PCA
GDA自动
编码
器 t-SNE
UMAP
MVU
Diffusion maps
Graph Autoencoders

Graph-based kernel PCA
(Isomap, LLE, Hessian LLE, Laplacian Eigenmaps)

虽然还有很多