在执行 PCA 并研究程序之后,我问自己下一步的结果是什么。从 PCA 中,我学会了如何通过降低维度来可视化数据集,我得到了方便的新向量来以更有效的方式描述人口中的成员,并且我了解了哪些原始预测变量比其他预测变量相关且贡献更大。
我问自己这样的问题,是否有更多可以从 PCA 中学习,使用 PCA 模型来学习算法以更好地执行是一个好主意,是否有可能以某种方式尊重 PCA 中的名义或有序预测变量?
在执行 PCA 并研究程序之后,我问自己下一步的结果是什么。从 PCA 中,我学会了如何通过降低维度来可视化数据集,我得到了方便的新向量来以更有效的方式描述人口中的成员,并且我了解了哪些原始预测变量比其他预测变量相关且贡献更大。
我问自己这样的问题,是否有更多可以从 PCA 中学习,使用 PCA 模型来学习算法以更好地执行是一个好主意,是否有可能以某种方式尊重 PCA 中的名义或有序预测变量?
正如上面@CarltonBanks 所建议的那样,PCA 确实可以帮助您删除相关性最小的特征,并将这些特征混合在一起,使它们具有最高的相关性。
要回答您的问题,如何使用 PCA 可视化更高维度
我们应该更频繁地在机器学习算法中使用 PCA 吗?
好吧,这完全取决于,使用 PCA 会降低数据集的准确性,因此除非您需要节省一些空间,这些空间是由于许多相关性较差的特征而导致的,而整体准确性并不重要。如果您的机器学习模型场景与此类似,则可以继续。
但是,PCA 的大部分用途是您之前询问的可视化高维数据以确定数据趋势并检查哪个模型最适合。