什么是可解释的机器学习模型?

人工智能 机器学习 深度学习 深度神经网络 可解释的ai 黑盒子
2021-10-21 19:13:43

Interpretable-ml book 中的这个页面Analytics Vidhya 上的这篇文章,这意味着了解 ML 模型内部发生了什么以得出结果/预测/结论。

在线性回归中,新数据将乘以权重并添加偏差以进行预测。

在增强树模型中,可以将所有决策绘制为导致预测的树。

在前馈神经网络中,我们将像线性回归一样具有权重和偏差,我们只是在每一层乘以权重并添加偏差,在每一层使用某种激活函数在一定程度上限制值,最终得出预测。

在 CNN 中,可以看到通过 CNN 块后输入发生了什么,以及在池化后提取了哪些特征(参考:CNN 看到了什么?)。

就像我上面所说的,人们可以很容易地知道 ML 模型内部发生了什么,从而做出预测或结论。而且我不清楚是什么让它们无法解释!那么,究竟是什么让算法或其结果无法解释,或者为什么将这些称为黑盒模型?还是我错过了什么?

1个回答

在形式的简单线性模型中y=β0+β1x我们可以看到增加x一个单位将增加对y经过β1. 在这里,我们可以完全确定通过增加对模型预测的影响x. 对于神经网络等更复杂的模型,由于涉及单个数据点的所有计算,因此很难分辨。例如,在您提到的 CNN 中,如果我更改图像中像素的值我们正在通过 CNN,您将无法像使用线性模型那样准确地告诉我这会对预测产生什么影响。