AI 可解釋性 (Python語言版) Explainable AI with Python
Leonida Gianfagna,Antonio Di Cecco 郭濤 譯
- 出版商: 清華大學
- 出版日期: 2022-08-01
- 售價: $359
- 貴賓價: 9.5 折 $341
- 語言: 簡體中文
- ISBN: 7302605696
- ISBN-13: 9787302605690
-
相關分類:
Python、程式語言、人工智慧、Machine Learning
- 此書翻譯自: Explainable AI with Python
立即出貨 (庫存 < 4)
買這商品的人也買了...
-
$505數據挖掘:實用機器學習工具與技術 (Data Mining : Practical Machine Learning Tools and Techniques, 4/e)
-
$780$616 -
$354$336 -
$450$338 -
$297可解釋機器學習:黑盒模型可解釋性理解指南
-
$599$509 -
$880$748 -
$403可解釋機器學習:模型、方法與實踐
-
$1,200$948 -
$662深度學習時代的電腦視覺算法
-
$880$695 -
$620$465 -
$774$735 -
$714$678 -
$768$730 -
$450$351 -
$1,188$1,129 -
$1,200$948 -
$510看漫畫學 Python:有趣、有料、好玩、好用 (全彩修訂版)
-
$474$450 -
$474$450 -
$1,280$1,011 -
$980$774 -
$880$748 -
$780$616
相關主題
商品描述
《AI可解釋性(Python語言版)》全面介紹了AI可解釋性的概念和可用技術,使機器學習系統更易於解釋。書中提出的方法可以應用於幾乎所有現有的機器學習模型:線性和邏輯回歸、深度學習神經網絡、自然語言處理和圖像識別等等。 隨著機器學習的發展,如今人們越來越多地使用人工智能體來執行以前由人類處理的關鍵任務(醫療、法律和金融等等)。雖然智能體的設計原則已被理解,但目前的大多數深度學習模型對人類理解而言是“不透明的”。《AI可解釋性(Python語言版)》從理論和實踐的角度填補了這個新興主題文獻方面的空白,使讀者能夠快速地使用可解釋性AI的工具和代碼。
目錄大綱
目 錄
第1章 前景 1
1.1 AI可解釋性示例 2
1.1.1 學習階段 3
1.1.2 知識發現 4
1.1.3 可靠性和魯棒性 5
1.1.4 三個示例的啟示 5
1.2 ML和XAI 6
1.2.1 ML分類法 8
1.2.2 常見誤解 11
1.3 對AI可解釋性的需求 12
1.4 可解釋性與可理解性:是否為表達相同事物的不同詞語 14
1.4.1 從物質世界到人類 15
1.4.2 相關性不是因果性 16
1.4.3 那麽可理解性和可解釋性的區別是什麽 19
1.5 使ML系統具備可解釋性 21
1.5.1 XAI工作流程 21
1.5.2 全局視覺 24
1.6 我們真的需要ML模型的可解釋性嗎 26
1.7 小結 28
參考文獻 29
第2章 AI可解釋性:需求、機遇和挑戰 31
2.1 人工介入 32
2.1.1 半人馬座XAI系統 32
2.1.2 從“人工介入”的角度評估XAI 35
2.2 如何使ML模型具備可解釋性 37
2.2.1 內在可解釋性 41
2.2.2 事後可解釋性 44
2.2.3 全局或局部可解釋性 46
2.3 解釋的性質 49
2.4 小結 51
參考文獻 52
第3章 內在可解釋性模型 53
3.1 損失函數 54
3.2 線性回歸 57
3.3 邏輯回歸 67
3.4 決策樹 78
3.5 K最近鄰算法(KNN) 87
3.6 小結 90
參考文獻 91
第4章 XAI的模型不可知方法 93
4.1 全局可解釋性:排序重要性與部分依賴圖 94
4.1.1 根據排序重要性將特徵排序 95
4.1.2 訓練集中的排序重要性 99
4.1.3 部分依賴圖 100
4.1.4 解釋的性質 104
4.2 局部可解釋性:XAI與Shapley加法解釋 106
4.2.1 Shapley值:一種博弈論方法 107
4.2.2 SHAP的首次應用 108
4.2.3 解釋的性質 111
4.3 KernelSHAP 111
4.3.1 Shapley公式 112
4.3.2 如何計算Shapley值 112
4.3.3 局部線性代理模型(LIME) 113
4.3.4 KernelSHAP是一種特殊的LIME 115
4.4 KernelSHAP與交互 116
4.4.1 紐約出租車情境 116
4.4.2 通過初步分析訓練模型 116
4.4.3 用KernelShap使模型具備可解釋性 120
4.4.4 特徵交互 120
4.5 提升樹的更快速SHAP 122
4.5.1 TreeShap的應用 122
4.5.2 提供解釋 123
4.6 對SHAP的樸素評價 125
4.7 小結 127
參考文獻 128
第5章 解釋深度學習模型 129
5.1 不可知方法 130
5.1.1 對抗性特徵 130
5.1.2 增強方法 132
5.1.3 將遮擋用作增強方法 133
5.1.4 將遮擋用作不可知XAI方法 134
5.2 神經網絡(NN) 138
5.2.1 神經網絡結構 138
5.2.2 為什麽神經網絡是深層網絡(與淺層網絡相對) 140
5.2.3 修正激活(和批量歸一化) 142
5.2.4 顯著圖 143
5.3 打開深度網絡 144
5.3.1 不同層解釋 144
5.3.2 CAM(類激活圖,Class Activation Maps)和Grad-CAM 144
5.3.3 DeepShap/ DeepLift 146
5.4 對顯著性方法的評判 150
5.4.1 網絡所見 150
5.4.2 可解釋性逐層批量標準化 151
5.5 無監督方法 152
5.5.1 無監督降維 152
5.5.2 捲積濾波器降維 154
5.5.3 激活圖集:如何區分炒鍋與煎鍋 156
5.6 小結 158
參考文獻 159
第6章 用ML和XAI創造科學 161
6.1 數據時代的科學方法 162
6.2 因果關系階梯 166
6.3 用ML和XAI發現物理概念 172
6.3.1 自動編碼器的魔力 173
6.3.2 利用ML和XAI發現阻尼擺的物理特性 177
6.3.3 攀登因果關系階梯 181
6.4 ML和XAI時代的科學 182
6.5 小結 184
參考文獻 185
第7章 對抗性機器學習和可解釋性 187
7.1 對抗性示例(AE)速成課程 188
7.2 使用對抗性示例運行XAI 201
7.3 用XAI抵禦對抗性攻擊 205
7.4 小結 208
參考文獻 209
第8章 關於XAI可持續模型的建議 211
8.1 XAI“Fil Rouge” 212
8.2 XAI和GDPR 214
8.3 結語 220
8.4 小結 224
參考文獻 224
附錄 F.A.S.T. XAI認證 227