可解釋AI實戰(PyTorch版) Interpretable AI

[英] 阿傑伊·塔姆佩(Ajay Thampi)著 葉偉民、朱明超、劉華、葉孟良、袁敏 譯

  • 出版商: 清華大學
  • 出版日期: 2024-03-01
  • 定價: $588
  • 售價: 8.7$512 (限時優惠至 2024-12-04)
  • 語言: 簡體中文
  • 頁數: 269
  • 裝訂: 平裝
  • ISBN: 7302654867
  • ISBN-13: 9787302654865
  • 相關分類: DeepLearning
  • 此書翻譯自: Interpretable AI (Paperback)
  • 立即出貨

  • 可解釋AI實戰(PyTorch版)-preview-1
  • 可解釋AI實戰(PyTorch版)-preview-2
  • 可解釋AI實戰(PyTorch版)-preview-3
可解釋AI實戰(PyTorch版)-preview-1

買這商品的人也買了...

相關主題

商品描述

可解釋AI(Interpretable AI)將教會你識別模型所學習的模式及其產生結果的原因。通過閱讀《可解釋AI實戰(PyTorch版)》,你將掌握一些用於解釋白盒模型(如線性回歸和廣義可加模型)的方法,以及一些用於解釋復雜深度學習模型的方法。可解釋AI是一個快速發展的領域,本書將該領域的前沿研究簡化為你可以在Python中實現的實際方法。 主要內容 ● 解釋AI模型的技術 ● **限度地減少錯誤、偏見、數據泄露和概念漂移 ● 度量公平性和減少偏見 ● 構建符合GDPR的AI系統

作者簡介

Ajay Thampi 在機器學習領域具有紮實的基礎。他的博士研究主要專注於信號處理和機器學習。他發表過許多關於強化學習、凸優化和傳統機器學習技術應用於5G移動網絡的論文。Ajay 目前在一家大型科技公司擔任機器學習工程師,主要關注負責任的AI和AI公平性。在此之前,Ajay是微軟的高級數據科學家,負責為各行各業(如制造業、零售業和金融業)的客戶部署覆雜的人工智能解決方案。

目錄大綱

 

目    錄

 

第Ⅰ部分  可解釋基礎知識

第1章  導論 3

1.1 Diagnostics+ AI——AI系統示例 3

1.2  機器學習系統的類型 4

1.2.1 數據的表示 4

1.2.2 監督學習 6

1.2.3 無監督學習 7

1.2.4 強化學習 7

1.2.5 最適合Diagnostics+ AI的機器學習系統 8

1.3 構建Diagnostics+ AI 8

1.4 Diagnostics+的主要問題 10

1.4.1 數據泄露 10

1.4.2 偏見 10

1.4.3 監管不合規 11

1.4.4 概念漂移 11

1.5 如何解決這些主要問題 11

1.6 Interpretability與Explainability 13

1.7 你將在本書學到什麽 15

1.7.1 本書使用的工具 17

1.7.2 閱讀本書所需的基礎知識 17

1.8 本章小結 18

第2章  白盒模型 19

2.1 白盒模型概述 20

2.2 Diagnostics+ AI示例:預測糖尿病進展情況 21

2.3 線性回歸 24

2.3.1 解釋線性回歸 27

2.3.2 線性回歸的局限性 29

2.4 決策樹 30

2.4.1 解釋決策樹 32

2.4.2 決策樹的局限性 35

2.5 廣義可加模型(GAM) 36

2.5.1 回歸樣條 38

2.5.2 GAM用於Diagnostics+AI預測糖尿病進展 42

2.5.3 解釋GAM 43

2.5.4 GAM的局限性 46

2.6 展望黑盒模型 46

2.7 本章小結 48

 

第Ⅱ部分  解釋模型處理

第3章  全局與模型無關可解釋技術 51

3.1 高中生成績預測器 52

3.2 集成樹 57

3.3 解釋隨機森林 63

3.4 模型無關方法:全局可解釋 65

3.4.1 部分依賴圖 66

3.4.2 特徵的相互作用 71

3.5 本章小結 77

第4章  局部與模型無關可解釋技術 79

4.1 Diagnostics+ AI示例:乳腺癌診斷 80

4.2 探索性數據分析 81

4.3 深度神經網絡 84

4.3.1 數據準備 88

4.3.2 訓練和評估DNN 90

4.4 解釋DNN 92

4.5 LIME 94

4.6 SHAP 103

4.7 錨定 106

4.8 本章小結 110

第5章  顯著圖 113

5.1 Diagnostics+ AI示例:浸潤性導管癌檢測 114

5.2 探索性數據分析 114

5.3 捲積神經網絡 117

5.3.1 數據準備 121

5.3.2 訓練和評估CNN 123

5.4 解釋CNN 126

5.4.1 概率分佈圖 126

5.4.2 LIME 127

5.4.3 視覺歸因法 132

5.5 標準反向傳播 134

5.6 導向反向傳播 138

5.7 其他基於梯度的方法 140

5.8 Grad-CAM和導向Grad-CAM 141

5.9 我應該使用哪種歸因法 145

5.10 本章小結 147

 

第Ⅲ部分  解釋模型表示

第6章  理解層和單元 151

6.1 視覺理解 152

6.2 回顧捲積神經網絡 153

6.3 神經網絡剖析框架 155

6.3.1 概念定義 156

6.3.2 網絡探測 157

6.3.3 量化對齊 160

6.4 解釋層和單元 160

6.4.1 運行網絡剖析 161

6.4.2 概念檢測器 165

6.4.3 訓練任務的概念檢測器 171

6.4.4 可視化概念檢測器 176

6.4.5 網絡剖析的局限性 179

6.5 本章小結 179

第7章  理解語義相似性 181

7.1 情感分析 182

7.2 探索性數據分析 183

7.3 神經網絡詞嵌入 187

7.3.1 獨熱編碼 187

7.3.2 Word2Vec 188

7.3.3 GloVe嵌入 191

7.3.4 情感分析模型 193

7.4 解釋語義相似性 194

7.4.1 度量相似性 196

7.4.2 主成分分析(PCA) 199

7.4.3 t分佈隨機近鄰嵌入(t-SNE) 204

7.4.4 驗證語義相似性的可視化 208

7.5 本章小結 210

 

 

第Ⅳ部分  公平和偏見

第8章  公平和減少偏見 213

8.1 成年人收入預測 215

8.1.1 探索性數據分析 216

8.1.2 預測模型 218

8.2  公平性概念 221

8.2.1 人口平等 222

8.2.2 機會和幾率平等 225

8.2.3 其他公平性概念 228

8.3 可解釋和公平性 229

8.3.1 源自輸入特徵的歧視 229

8.3.2 源自表示的歧視 233

8.4 減少偏見 234

8.4.1 無意識公平 234

8.4.2 通過重新加權糾正標註偏見 235

8.5 數據集的數據表 238

8.6 本章小結 240

第9章  XAI 243

9.1  XAI概述 245

9.2 反事實說明 247

9.3 本章小結 251

附錄A  設置環境 253

A.1 Python代碼 253

A.2 Git代碼庫 253

A.3 Conda環境 253

A.4 Jupyter notebooks 254

A.5 Docker 254

附錄B  PyTorch 257

B.1 什麽是PyTorch 257

B.2 安裝PyTorch 257

B.3 張量 258

B.3.1 數據類型 259

B.3.2 CPU和GPU張量 260

B.3.3 運算 260

B.4  Dataset和DataLoader 261

B.5  建模 263

B.5.1 自動微分法 263

B.5.2 模型定義 265

B.5.3 訓練 267