从Interpretable-ml book 中的这个页面和Analytics Vidhya 上的这篇文章,这意味着了解 ML 模型内部发生了什么以得出结果/预测/结论。
在线性回归中,新数据将乘以权重并添加偏差以进行预测。
在增强树模型中,可以将所有决策绘制为导致预测的树。
在前馈神经网络中,我们将像线性回归一样具有权重和偏差,我们只是在每一层乘以权重并添加偏差,在每一层使用某种激活函数在一定程度上限制值,最终得出预测。
在 CNN 中,可以看到通过 CNN 块后输入发生了什么,以及在池化后提取了哪些特征(参考:CNN 看到了什么?)。
就像我上面所说的,人们可以很容易地知道 ML 模型内部发生了什么,从而做出预测或结论。而且我不清楚是什么让它们无法解释!那么,究竟是什么让算法或其结果无法解释,或者为什么将这些称为黑盒模型?还是我错过了什么?