終身機器學習 (原書第2版)

[美] 陳志源(Zhiyuan Chen) 劉 兵(Bing Liu) 著

買這商品的人也買了...

商品描述

本書介紹終身學習這種高級機器學習範式,這種範式通過積累過去的知識持續地學習,並將學到的知識用於幫助在未來進行其他學習和解決問題。相比之下,當前主流的機器學習範式都是孤立學習,即給定一個訓練數據集,之後在這個數據集上運行機器學習算法以生成模型,然後再將該模型運用於預期的應用。這些範式不保留已經學到的知識,也不將其運用到後續的學習中。與孤立學習系統不同,人類只通過少量的樣例就能實現有效學習,這是因為人類的學習是知識驅動的,即只需少量的數據或付出,就能利用過去已經學到的知識去學習新事物。終身學習的目標就是模仿人類的這種學習能力,因為一個沒有持續學習能力的AI系統不能算作真正的智能。
自本書第1版出版以來,終身學習的研究在相對較短的時間內取得了顯著的進展。出版第2版是為了擴展終身學習的定義,更新部分章節的內容,並添加一個新的章節來介紹深度神經網絡中持續學習的內容,這部分內容在過去的兩三年裡一直被積極研究。部分章節的內容也進行了修改,使得內容更有條理,方便讀者閱讀。此外,作者希望為這一研究領域提出一個統一的框架。目前,在機器學習中有幾個與終身學習密切相關的研究課題,特別是多任務學習、遷移學習以及元學習,因為它們也採用了知識共享和知識遷移的思想。本書之所以集中介紹這些技術並討論其異同,目的是在介紹終身機器學習的同時,對該領域的重要研究成果和新想法進行全面回顧。本書適用於對機器學習、數據挖掘、自然語言處理或模式識別感興趣的學生、研究人員和從業人員。

作者簡介

劉兵 美國伊利諾伊大學芝加哥分校(UOC)計算機科學系傑出教授,獲得愛丁堡大學人工智能博士學位。他是ACM Fellow、AAAIFellow、0E巨巨Fellow,曾擔任ACM SOGKDD主席(7/1/2013~6/30/2017)。劉兵教授兩次獲得KDD十年丁est一Of一Time論文獎,出版多部專著,是數據挖掘、機器學習、情感分析領域最有影響力的學者之一。主要研究領域包括情感分析和觀點挖掘、數據挖掘、機器學習、自然語言處理等。

目錄大綱

譯者序
前言
致謝
第1章 引言
1.1 傳統機器學習範式
1.2 案例
1.3 終身學習簡史
1.4 終身學習的定義
1.5 知識類型和關鍵挑戰
1.6 評估方法和大數據的角色
1.7 本書大綱
第2章 相關學習範式
2.1 遷移學習
2.1.1 結構對應學習
2.1.2 樸素貝葉斯遷移分類器
2.1.3 遷移學習中的深度學習
2.1.4 遷移學習與終身學習的區別
2.2 多任務學習
2.2.1 多任務學習中的任務相關性
2.2.2 GO-MTL:使用潛在基礎任務的多任務學習
2.2.3 多任務學習中的深度學習
2.2.4 多任務學習與終身學習的區別
2.3 在線學習
2.4 強化學習
2.5 元學習
2.6 小結
第3章 終身監督學習
3.1 定義和概述
3.2 基於記憶的終身學習
3.2.1 兩個基於記憶的學習方法
3.2.2 終身學習的新表達
3.3 終身神經網絡
3.3.1 MTL網絡
3.3.2 終身EBNN
3.4 ELLA:高效終身學習算法
3.4.1 問題設定
3.4.2 目標函數
3.4.3 解決一個低效問題
3.4.4 解決第二個低效問題
3.4.5 主動的任務選擇
3.5 終身樸素貝葉斯分類
3.5.1 樸素貝葉斯文本分類
3.5.2 LSC的基本思想
3.5.3 LSC技術
3.5.4 討論
3.6 基於元學習的領域詞嵌入
3.7 小結和評估數據集
第4章 持續學習與災難性遺忘
4.1 災難性遺忘
4.2 神經網絡中的持續學習
4.3 無遺忘學習
4.4 漸進式神經網絡
4.5 彈性權重合並
4.6 iCaRL:增量分類器與表示學習
4.6.1 增量訓練
4.6.2 更新特徵表示
4.6.3 為新類構建範例集
4.6.4 在iCaRL中完成分類
4.7 專家網關
4.7.1 自動編碼網關
4.7.2 測量訓練的任務相關性
4.7.3 為測試選擇相關的專家
4.7.4 基於編碼器的終身學習
4.8 生成式重放的持續學習
4.8.1 生成式對抗網絡
4.8.2 生成式重放
評估災難性遺忘
4.10 小結和評估數據集
第5章 開放式學習
5.1 問題定義和應用
5.2 基於中心的相似空間學習
5.2.1 逐步更新CBS學習模型
5.2.2 測試CBS學習模型
5.2.3 用於未知類檢測的CBS學習
5.3 DOC:深度開放式分類
5.3.1 前饋層和一對其餘層
5.3.2 降低開放空間風險
5.3.3 DOC用於圖像分類
5.3.4 發現未知類
5.4 小結和評估數據集
第6章 終身主題建模
6.1 終身主題建模的主要思想
6.2 LTM:終身主題模型
6.2.1 LTM模型
6.2.2 主題知識挖掘
6.2.3 融合過去的知識
6.2.4 Gibbs採樣器的條件分佈
6.3 AMC:少量數據的終身主題模型
6.3.1 AMC整體算法
6.3.2 挖掘must-link知識
6.3.3 挖掘cannot-link知識
6.3.4 擴展的Pólya甕模型
6.3.5 Gibbs採樣器的採樣分佈
6.4 小結和評估數據集
第7章 終身信息提取
7.1 NELL:永不停止語言學習器
7.1.1 NELL結構
7.1.2 NELL中的提取器與學習
7.1.3 NELL中的耦合約束
7.2 終身評價目標提取
7.2.1 基於推薦的終身學習
7.2.2 AER算法
7.2.3 知識學習
7.2.4 使用過去知識推薦
7.3 在工作中學習
7.3.1 條件隨機場
7.3.2 一般依賴特徵
7.3.3 L-CRF算法
7.4 Lifelong-RL:終身鬆弛標記法
7.4.1 鬆弛標記法
7.4.2 終身鬆弛標記法
7.5 小結和評估數據集
第8章 聊天機器人的持續知識學習
8.1 LiLi:終身交互學習與推理
8.2 LiLi的基本思想
8.3 LiLi的組件
8.4 運行示例
8.5 小結和評估數據集
第9章 終身強化學習
9.1 基於多環境的終身強化學習
9.2 層次貝葉斯終身強化學習
9.2.1 動機
9.2.2 層次貝葉斯方法
9.2.3 MTRL算法
9.2.4 更新層次模型參數
9.2.5 對MDP進行採樣
9.3 PG-ELLA:終身策略梯度強化學習
9.3.1 策略梯度強化學習
9.3.2 策略梯度終身學習設置
9.3.3 目標函數和優化
9.3.4 終身學習的安全策略搜索
9.3.5 跨領域終身強化學習
9.4 小結和評估數據集
第10章 結論及未來方向
參考文獻