在阅读有关模型可解释性和模型责任的信息时,代理模型一词不断出现。我对它是什么有一个想法,但它似乎不再有意义:
什么是代理模型?
为什么代理模型有利于可解释性?
在阅读有关模型可解释性和模型责任的信息时,代理模型一词不断出现。我对它是什么有一个想法,但它似乎不再有意义:
什么是代理模型?
为什么代理模型有利于可解释性?
“代理”只是一个替身或代理。在数据科学中,“代理”一词的使用方式不止一种(想到贝叶斯超参数优化)。对于可解释性,它似乎主要用于表示更易解释的模型(可能是线性/逻辑回归),该模型经过训练以逼近主要的,通常是黑盒模型(可能是增强树或神经网络)。
参见例如https://christophm.github.io/interpretable-ml-book/global.html。(作者将 LIME 称为“局部代理”方法并区分“全局代理”方法,但我习惯将“代理”仅听到为全局代理。)
代理模型是给定函数的近似模型。
原始函数通常是一个黑盒函数,我们可以从中进行采样,并且基于这些样本我们可以优化我们的代理模型以近似原始函数的行为。
代理模型可以是神经网络、集成方法、高斯过程,可以解释并在以后用于可解释性。