可解释的机器学习(XML)概览

发布于:2022-11-28 ⋅ 阅读:(408) ⋅ 点赞:(0)

一、引言

近年来,机器学习在大数据和算力发展的加持下在各个应用领域获得了令人印象深刻的成果,尤其是深度学习模型和集成学习模型(Random Forest,XGBoost和LigntGBM)。但是,这些模型有一个共同的特点:它们的内部结构非常复杂,其运作机制就像一个黑盒(Black-Box),难以用人类可以理解的语言去描述整个推理过程,模型的输出结果也难以被解释(为什么是这个结果?)。因此,在一些模型的决策可能会产生重大影响的领域,比如自动驾驶、医疗诊断、银行业和法律界,复杂的机器学习算法的应用仍然面临挑战。

二、黑盒模型存在的问题

1.无法挖掘因果关系或者因果错判

机器学习往往又被称为统计学习,或者统计机器学习,因为大部分的算法都是建立在统计的基础之上的,比如最大似然,贝叶斯推论等。并且,传统的评价指标,如正确率,精确度,召回率,AUC和F1分数也不能保证模型的推理过程是合理的。因此,机器学习常常捕捉到的是特征之间的相关性而非因果性。

一个非常典型的例子是各个国家的诺贝尔奖获奖数量和人均巧克力的消耗量之间的关系,如果使用线性回归基于人均巧克力消耗量对国家诺贝尔奖获奖数量进行“预测”,我们会发现误差非常小,但是,我们能说多吃巧克力就能多获诺贝尔奖吗?显然不能。

2. 不安全性

对于模型的设计来说,黑盒模型内部结构复杂,当模型受到攻击时,我们很难发现这些攻击。常见的例子是对抗样本,人们在图片中添加一些人类无法察觉到的噪音,就可以顺利改变模型的预测结果从而欺骗模型。如果建模人员在设计模型或者训练模型时无法发现这些问题,那在模型实际部署之后将是非常危险的。

对于模型的使用者来说,他们并不了解模型的内部运作机制,只是利用了模型的结果作为决策。一般来说,这个结果以概率或者评分的形式给出,然而使用者对模型的风险少有了解,盲目使用这些结果是武断的。这就好像,我们服用治疗某种疾病的药物时,完全忽略其副作用。

3. 可能存在偏见

偏见是指对某类人群带有主观意识的情感,就人论事,如性别歧视、种族歧视等。黑盒模型往往存在偏见的问题,尤其是在样本存在不平衡问题的时候。如著名的论文《Why Should I Trust You?- Explaining the Predictions of any Classifiers》中指出的那样,哈士奇被识别为狼的原因是图片背景中的雪地。深入研究训练样本后发现,原来所有狼的训练图片都包含雪地,这一偏见被模型所学习并放大,模型认为狼就应该生活在雪地中。

上述的例子可能不够明显,更加著名的是美国广泛使用的COMPAS算法,该算法通过预测罪犯再次犯罪的可能性来指导判刑。但是根据美国新闻机构的报道:COMPAS算法存在明显的偏见,该系统预测黑人被告再次犯罪的风险远远高于白种人,甚至是两倍的关系。另外,Facebook也曾被爆出人脸识别系统将黑人判定为黑猩猩的丑闻。

三、模型可解释的重要性

1. 可靠性强,易于产生信任

用户对模型的信任是模型能够部署和实际使用的前提,否则他们就不会放心地使用模型并不断提出如下问题:我为什么要信任它?他的预测可靠吗?它的决策机制合理吗?万一它预测错了怎么办?这种情况下,如果我们能够清晰地知道预测结果的由来,那么我们会更加信任所使用的模型。

2. 判别和减少模型的偏差

偏差可能存在与任何数据中,我们需要使用各种统计分析手段去发现和修正偏差。这些偏差的来源各种各样,可能是由于数据规模有限,不能囊括所有的数据,亦可能是因为数据收集过程中没有考虑可能存在的偏差。在彻底进行数据分析中之后,或者分析模型输入和输出的关系时,偏差往往会变得非常明显。可解释性可以让我们提前意识到潜在的偏差问题。

3. 改进泛化能力和性能

可解释的模型通常具有更好的泛化能力。可解释性并不是要了解所有数据点的模型的全部细节。只有将可靠的数据,模型和问题理解结合起来吗,才能获得更高性能的解决方案。

4. 满足道德和法律的需求

随着数据和隐私保护法规的发展,可解释性变得更加重要。比如GDPR明确表示,对于自动决策模型,用户有获得解释的权利。中国央行印发的《金融科技(FinTech)发展规划(2019-2021)》也提出要求金融科技的应用要做到安全、可控、先进和高效。

四、可解释的定义

对于可解释性,目前为止学术界还没有统一的形式化的定义。但是,有一些直观上的定义可以作为参考。解释值得是用通俗易懂的语言进行分析阐明和呈现。对于模型来说,可解释性指的是模型能用通俗易懂的语言进行表达,是一种能被人类所理解的能力。具体来说就是,能够将模型的预测过程转化成具有逻辑关系的规则的能力。可解释性通常比较主观,对于不同的人,解释的程度也不一样,很难用统一的指标进行度量。

五、解释的分类

1. 内在可解释和事后可解释

内在可解释(Intrinsic Interpretability)指的是模型自身结构比较简单,使用者可以清晰地看到模型内部的结构,并能够跟踪从输入到输出的计算过程,模型的参数具有解释的效果,模型在设计的时候就已经具备了可解释性。

时候可解释(Post-hoc Interpretability)指的是模型训练完之后,使用一定的方法增强模型的可解释性,挖掘模型学习到的信息。常用的事后解释方法有可视化、扰动测试(灵敏度分析),代理模型等。

2. 全局解释和局部解释

全局解释指的是整个模型从数如到输出之间的解释,从全局解释中,我们可以得到普通规律或统计推断,理解每个特征对模型的影响。

局部解释至的是当一个样本或者一组样本的输入值发生变化时,解释其预测结果会发生什么样的变化。

六、相关书籍推荐

在这里插入图片描述在这里插入图片描述在这里插入图片描述
注:上述部分内容参考《可解释机器学习:模型、方法和实践》第一章和第二章

本文含有隐藏内容,请 开通VIP 后查看