Interpretable-Machine-Learning

介绍

本书介绍如何让有监督的机器学习模型可解释。这些章节包含一些数学公式,但即使没有公式,你也应当能够理解方法背后的思想。本书不适合那些试图从头学习机器学习的人。如果您不熟悉机器学习,有很多书籍和其他资源可供学习基础知识。我推荐Hastie,Tibshirani和Friedman的书<统计学习基础>(2009)和Andrew Ng的在线学习平台coursera.com上的“机器学习”在线课程作为入门。这本书和课程都是免费的!

当前,解释机器学习模型的新方法在以极快的速度发布。跟上所有刚发表的内容将是疯狂的,而且根本不可能。这就是为什么你在本书中找不到最新颖和最花哨的方法,而是成熟的方法和机器学习可解释性的基本概念。这些基础知识将使您足以解读机器学习模型。理解基本概念也能使您只需要5分钟就能更好地理解和评估任何一篇新发表在arxiv.org上的论文(我可能夸大了发表效率)。

这本书首先列举一些反乌托邦的短篇小说。读懂这些短篇小说不需要理解整本书,但它能够使人感到有趣的同时并引发思考。其次,本书探讨了机器学习可解释性的概念。我们将讨论何时可解释性很重要以及存在哪些不同类别的解释。本书中使用的术语可以在专门章节中找到。绝大多数模型和方法都是使用真实数据(如数据章节中描述的那样)来呈现的。使机器学习可解释的一种方法是使用可解释的模型,例如线性模型或决策树。另一种选择是使用模型无关的解释工具,可以应用于任何监督机器学习模型。模型无关方法章节涉及诸如部分依赖图和特征重要性排序之类的方法。模型无关方法通过改变机器学习模型的输入和测量输出的变化来工作。“基于示例的说明”一章中将重点讨论返回数据实例作为解释的模型无关方法。所有模型无关方法都可以根据它们能否解释所有数据实例或单个案例预测结果的模型行为来进一步区分。以下方法解释了模型的整体行为:部分依赖图,累积局部效应,特征交互,特征重要性,全局代理模型以及原型和批评。为了解释单个案例的预测结果,书中介绍了局部代理模型,Shapley值解释,反事实解释(以及密切相关的:对抗性例子)。一些方法可用于解释全局模型行为以及单个案例的预测结果:个体条件期望和影响实例。

本书最后对可解释机器学习的未来作了乐观展望。

您可以从头到尾阅读本书,也可以直接跳到您感兴趣的方法。

我希望你会喜欢阅读!