1200+标星,3千多人点赞,这本书让你系统了解机器学习可解释性丨开源免费阅读

AI资讯1年前 (2023)发布 AI工具箱
336 0 0

机器学习的黑箱性一直让很多人感到头大。

对许多技术人员来说,机器学习在出现问题的时候,总会让人一头雾水,搞不清楚具体是哪里出了问题。

而对于商业应用来说,在医疗等高风险的情况下,机器学习的黑箱性给推广普及造成了困难,说不清楚,要如何让吃瓜群众和监管部门信任?

现在,了解机器学习黑箱性,有了一本系统全面的书:

Christoph Molnar年初公开的《可解释的机器学习(Interpretable Machine Learning)》

这本书总共耗时两年完成,长达250页。

在它的GitHub项目页上,一共有了1297个commits,除了作者Christoph Molnar之外,还有25位贡献者为它做出了贡献和修改。

Readme里的备注总共记录了从v0.1到v1.2出了10版,可谓是“披阅二载,增删十次”,是众人智慧的结晶。

因此,这本书也吸引了1277名用户标星,而作者将其公之于众的推特也吸引了近千转发,3000多人点赞。

Hacker News上不少人都对这本书啧啧称赞:

我在搞关于这个问题的学术研究,这是我当前找到的唯一一本相关的书,简直太棒了。

这本书简直太让人爱了,而且非常有用,既清晰又易读,还给出了许多在既定情况下如何操作的方法,提供了充足的细节方便你做决策。

甚至,还有中国出版社的编辑看上了这本书,希望引进出版中文版本:

而且,此书完整电子版免费阅读

那,这本书里究竟写了些啥?

书里写了啥

除了前言、致谢等内容外,整本书的核心部分有8个章节。分别是:

1.机器学习简介

2.可解释性

3.数据集

4.可解释的模型

5.模型不可知方法

6.基于实例的解释

7.神经网络解释

8.机器学习与可解释性研究的未来

每个部分作者都做了充足的解释与介绍,比如第四章《可解释的模型》中,作者介绍了线性回归、逻辑回归、决策树等模型,并进行了针对性的解释,介绍了基本的原理和特点,还提出了如果这个模型出现问题时的一些解决办法。

而且,对于更为基础的概念介绍章节,作者用许多平实的语言,结合各类现实生活中的例子介绍了相关的概念,还配了参考链接可以进一步学习了解。

此外,还提供了相关的例子,都有现成的链接,是用R语言写的。

作者介绍

这本书的作者Christoph Molnar,目前是慕尼黑大学的博士生,研究的专业就是可解释的机器学习,此前也在慕尼黑大学读了统计学硕士,主要研究将数据转换成产品。

除了这本书之外,他还有一个名为Machine Master的博客,分享关于神经网络、Python、统计学、数据处理等方面经验。

传送门

在线阅读:
https://christophm.github.io/interpretable-ml-book/index.html

GitHub:
https://github.com/christophM/interpretable-ml-book

© 版权声明

相关文章

暂无评论

暂无评论...