機器學習導論
張旭東
- 出版商: 清華大學
- 出版日期: 2022-01-01
- 定價: $594
- 售價: 7.9 折 $469
- 語言: 簡體中文
- 頁數: 401
- 裝訂: 平裝
- ISBN: 7302594724
- ISBN-13: 9787302594727
-
相關分類:
Machine Learning
立即出貨
買這商品的人也買了...
-
$454深度學習原理與實踐
-
$281雲計算基礎教程(第2版)
-
$1,580$1,548 -
$474$450 -
$305機器學習入門與實戰 — 基於 scikit-learn 和 Keras
-
$588$559 -
$407超簡單:用 Python 讓 Excel 飛起來 實戰150例
-
$383智能算法導論
-
$654$621 -
$599$569 -
$407深度學習處理結構化數據實戰
-
$305Python 數據分析 — 從獲取到可視化
-
$458Python 深度學習, 2/e
-
$450$428 -
$454圖像識別技術與實戰 (OpenCV + dlib + Keras + Sklearn + TensorFlow)
-
$602數據挖掘原理, 4/e (Principles of Data Mining, 4/e)
-
$1,380$1,352 -
$356集成學習入門與實戰:原理、算法與應用
-
$408$388 -
$403左手Python,右手Excel:帶飛Excel的Python絕技
-
$450$428 -
$630$536 -
$1,423機器學習:貝葉斯和優化方法, 2/e (Machine Learning : A Bayesian and Optimization Perspective, 2/e)
-
$560$442 -
$301智能群體博弈
相關主題
商品描述
本書是一部論述機器學習原理與算法的立體化教材(含紙質圖書、教學課件和部分視頻教程),本書兼顧機器學習基礎、經典方法和深度學習方法。對組成機器學習的基礎知識和基本算法做了比較細致的介紹,對廣泛應用的經典算法如線性回歸、邏輯回歸、樸素貝葉斯、支持向量機、決策樹和集成學習等算法都給出了深入的分析,並討論了無監督學習的基本方法。用5章的篇幅對深度學習和深度強化學習做了相當全面的敘述,不僅深入地討論了反向傳播算法、多層感知機、CNN網絡、RNN網絡和LSTM結構等深度神經網絡的核心知識和結構,對於一些發展中的專題如生成對抗網絡(GAN)和Transformer等也予以一定深度的介紹。對於強化學習,不僅介紹了經典表格方法,也較詳細地討論了深度強化學習。本書是面向大學理工科和管理類各專業的一本寬口徑、綜合性機器學習教材,可供本科高年級和研究生課程使用,也可供科技人員、工程師和程序員自學機器學習的原理和算法之用。本書對基礎和前沿、經典方法和熱門技術做了盡可能地平衡,使得讀者不僅能在機器學習領域打下一個良好的基礎,同時也可以利用所學知識解決遇到的實際問題並進入學科前沿。
作者簡介
張旭東,清華大學電子工程係長聘教授,博士生導師,主要研究方向為信號處理和機器學習。先後承擔國家、省部級和國際合作項目數十項,在IEEE、IET、ACM等重要刊物和NIPS、AAAI、ICASSP、SIGIR等重要會議上發表學術論文150餘篇,出版著作5部。獲得Elsevier的引用獎(The Most Cited Paper Award)和IET國際雷達年會論文獎,兩次獲得清華大學教學成果一等獎,3次獲得清華大學優秀教材獎。
目錄大綱
第1章機器學習概述
1.1什麼是機器學習
1.2機器學習的分類
1.2.1基本分類
1.2.2監督學習及其功能分類
1.3構建機器學習系統
1.3.1機器學習的基本元素
1.3.2機器學習的一些基本概念
1.3.3機器學習模型的性能評估
1.4通過簡單示例理解機器學習
1.4.1一個簡單的回歸示例
1.4.2一個簡單的分類示例
1.5訓練、驗證與測試
1.6深度學習簡介
1.7本章小結
習題
第2章統計與優化基礎
2.1概率基礎
2.1.1離散隨機變量
2.1.2連續隨機變量
2.1.3隨機變量的基本特徵
2.1.4隨機特徵的蒙特卡洛逼近
2.2概率實例
2.2.1離散隨機變量示例
2.2.2高斯分佈
2.2.3指數族
2.2.4混合高斯過程
2.2.5馬爾可夫過程
2.3大似然估計
2.4貝葉斯估計——大後驗估計
2.5隨機變量的熵特徵
2.5.1熵的定義和基本性質
2.5.2KL散度、互信息和負熵
2.6非參數方法
2.7優化技術概述
2.7.1基本優化算法
2.7.2拉格朗日方法
2.8本章小結
習題
第3章貝葉斯決策
3.1機器學習中的決策
3.2分類的決策
3.2.1加權錯誤率準則
3.2.2拒**判決
3.3回歸的決策
3.4高斯情況下的分類決策
3.4.1相同協方差矩陣情況的二分類
3.4.2不同協方差矩陣情況的二分類
3.4.3多分類情況
3.5KNN方法
*3.6概率圖模型概述
3.6.1貝葉斯網絡
3.6.2無向圖模型
3.6.3圖模型的學習與推斷
3.7本章小結
習題
第4章基本回歸算法
4.1線性回歸
4.1.1基本線性回歸
4.1.2線性回歸的遞推學習
4.1.3正則化線性回歸
4.1.4多輸出線性回歸
*4.2稀疏線性回歸Lasso
4.2.1Lasso的循環坐標下降算法
4.2.2Lasso的LAR算法
4.3線性基函數回歸
*4.4奇異值分解
4.5回歸學習的誤差分解
4.6本章小結
習題
第5章基本分類學習
5.1基本分類問題
5.2線性判別函數模型
5.2.1Fisher線性判別分析
*5.2.2感知機
5.3邏輯回歸
5.3.1二分類問題的邏輯回歸
5.3.2多分類問題的邏輯回歸
5.4樸素貝葉斯方法
*5.5機器學習理論簡介
5.5.1假設空間有限時的泛化誤差界
5.5.2假設空間無限時的泛化誤差界
5.6本章小結
習題
第6章支持向量機與核函數方法
6.1線性支持向量機
6.1.1不等式約束的優化
6.1.2線性可分情況的SVM
6.1.3不可分情況的SVM
6.1.4合頁損失函數
6.1.5SVM用於多分類問題
6.2非線性支持向量機
6.2.1SVM分類算法小結
*6.2.2SMO算法
6.3支持向量回歸
*6.4核函數方法
6.5本章小結
習題
第7章決策樹
7.1基本決策樹算法
7.1.1決策樹的基本結構
7.1.2信息增益和ID3算法
7.1.3信息增益率和C4.5算法
7.2CART算法
7.2.1分類樹
7.2.2回歸樹
7.3決策樹的一些實際問題
7.3.1連續數值變量
7.3.2正則化和剪枝技術
7.3.3缺失屬性的訓練樣本問題
7.4本章小結
習題
第8章集成學習
8.1Bagging和隨機森林
8.1.1自助採樣和Bagging算法
8.1.2隨機森林算法
8.2提升和AdaBoost算法
8.2.1AdaBoost算法介紹
*8.2.2AdaBoost算法分析
8.3提升樹算法
8.3.1加法模型和提升樹
8.3.2梯度提升樹
8.4本章小結
習題
第9章神經網絡與深度學習之一: 基礎
9.1神經網絡的基本結構
9.1.1神經元結構
9.1.2多層神經網絡解決異或問題
9.1.3多層感知機
9.1.4神經網絡的逼近定理
9.2神經網絡的目標函數和優化
9.2.1神經網絡的目標函數
9.2.2神經網絡的優化
9.3誤差反向傳播算法
9.3.1反向傳播算法的推導
9.3.2反向傳播算法的向量形式
9.3.3反向傳播算法的擴展
9.4神經網絡學習中的一些問題
9.4.1初始化
9.4.2正則化
9.4.3幾類等價正則化技術
9.5本章小結
習題
第10章神經網絡與深度學習之二: 結構
10.1卷積神經網絡
10.1.1卷積運算及其物理意義
10.1.2基本CNN的結構
10.1.3CNN的參數學習
*10.1.4卷積的一些擴展結構
*10.1.5CNN示例介紹
10.2循環神經網絡
10.2.1基本RNN
10.2.2RNN的計算和訓練
*10.2.3長短期記憶模型
*10.2.4門控循環單元
10.3本章小結
習題
第11章神經網絡與深度學習之三: 技術和應用
11.1深度學習中的優化算法
11.1.1小批量SGD算法
11.1.2動量SGD算法
11.1.3自適應學習率算法
11.2深度學習訓練的正則化技術
11.2.1Dropout技術
11.2.2批歸一化
*11.2.3層歸一化
*11.3對抗訓練
*11.4自編碼器
11.4.1自編碼器的基本結構
11.4.2自編碼器的一些擴展
*11.5生成對抗網絡
*11.6注意力機制和Transformer
11.6.1注意力機制
11.6.2序列到序列模型
11.6.3Transformer
11.7本章小結
第12章聚類和EM算法
12.1聚類算法
12.1.1K均值聚類算法
12.1.2DBSCAN聚類算法
12.1.3其他度量和聚類算法
12.2EM算法
12.2.1EM算法的隱變量形式
12.2.2獨立同分佈情況
*12.2.3EM算法擴展到MAP估計
*12.2.4通過KL散度對EM算法的解釋
12.3基於EM算法的高斯混合模型參數估計
12.3.1GMM參數估計
12.3.2GMM的軟聚類
12.4本章小結
習題
第13章降維和連續隱變量學習
13.1主分量分析
13.1.1主分量分析原理
13.1.2廣義Hebb算法
*13.2樣本向量的白化和正交化
13.2.1樣本向量的白化
13.2.2向量集的正交化
*13.3獨立分量分析
13.3.1獨立分量分析的原理和目標函數
13.3.2不動點算法FastICA
13.3.3自然梯度算法
13.3.4仿真實驗舉例
13.4本章小結
習題
第14章強化學習之一: 經典方法
14.1強化學習的基本問題
14.2馬爾可夫決策過程
14.2.1MDP的定義
14.2.2貝爾曼方程
14.2.3優策略
14.2.4強化學習的類型
14.2.5探索與利用
14.3動態規劃
14.3.1策略迭代方法
14.3.2值函數迭代方法
14.4強化學習的蒙特卡洛方法
14.4.1MC部分策略評估
14.4.2MC策略改進
14.4.3在軌策略和離軌策略
14.5強化學習的時序差分方法
14.5.1基本時序差分學習和Sarsa算法
14.5.2離軌策略和Q學習
14.5.3DP、MC和TD算法的簡單比較
*14.5.4多步時序差分學習和資格跡算法
*14.6多臂du博機
14.7本章小結
習題
第15章強化學習之二: 深度強化學習
15.1強化學習的值函數逼近
15.1.1基本線性值函數逼近
*15.1.2線性值函數逼近的Z小二乘策略迭代算法
15.1.3深度Q網絡
15.2策略梯度方法
15.2.1MC策略梯度算法Reinforce
15.2.2行動器評判器方法
*15.3連續動作確定性策略梯度方法
15.3.1DPG算法
15.3.2DDPG算法
15.3.3連續動作DRL的一些進展概述
15.4本章小結
習題
附錄A課程的實踐型作業實例
A.1第1次實踐作業
A.2第2次實踐作業
A.3第3次實踐作業
附錄B函數對向量和矩陣的求導
術語表
參考文獻