机器学习术语中的特征效应(例如 SHAP 效应)和特征重要性之间有区别吗?
特征效果和特征重要性的区别
数据挖掘
机器学习
特征选择
形状
特征重要性
2022-02-15 18:21:48
2个回答
在解释模型预测的统一方法中,作者将 SHAP 值定义为“作为特征重要性的统一度量”。也就是说,SHAP 值是估计特征重要性的众多方法之一。
这本电子书也提供了很好的解释:
SHAP 的目标是通过计算每个特征对预测的贡献来解释实例 x 的预测。[...] SHAP 特征重要性是置换特征重要性的替代方案。两种重要性度量之间存在很大差异:排列特征重要性基于模型性能的下降。SHAP 基于特征属性的大小。
SHAP 值估计特征对预测的影响,而特征重要性估计特征对模型拟合的影响。