機器學習原理與實踐 (Python版)
左飛,補彬
- 出版商: 清華大學
- 出版日期: 2021-02-01
- 定價: $534
- 售價: 8.5 折 $454
- 語言: 簡體中文
- 頁數: 404
- 裝訂: 平裝
- ISBN: 7302566399
- ISBN-13: 9787302566397
-
相關分類:
Machine Learning
立即出貨
買這商品的人也買了...
-
$474$450 -
$352Python 社會媒體挖掘 (Mastering Social Media Mining with Python)
-
$454跟著迪哥學Python數據分析與機器學習實戰
-
$449機器學習 — 原理、算法與應用
-
$294$279 -
$1,200$948 -
$2,750$2,613 -
$294$279 -
$407JavaScript 重難點實例精講
-
$403機器學習中的概率統計:Python 語言描述
-
$556$523 -
$422深度學習 — 從神經網絡到深度強化學習的演進
-
$474$450 -
$254Python 強化學習實戰:使用 OpenAI Gym、TensorFlow 和 Keras (Applied Reinforcement Learning with Python: With Openai Gym, Tensorflow, and Keras)
-
$422深度學習理論與實戰 — PyTorch 案例詳解
-
$534$507 -
$700$665 -
$1,015FPGA Verilog 開發實戰指南:基於 Intel Cyclone IV (基礎篇)
-
$1,000$850 -
$658斯坦福數據挖掘教程, 3/e (Mining of Massive Datasets, 3/e)
-
$551OpenCV 4 機器學習算法原理與編程實戰
-
$534$507 -
$359$341 -
$250Rhino 7 犀利建模
-
$356集成學習入門與實戰:原理、算法與應用
相關主題
商品描述
本書系統地介紹統計分析和機器學習領域中最為重要和流行的多種技術及其基本原理,本書在詳解有關算法的基礎上,結合大量Python語言實例演示了這些理論在實踐中的使用方法。具體內容包括線性回歸(包括嶺回歸和Lasso方法)、邏輯回歸、支持向量機、感知機與神經網絡、聚類分析(包括K均值算法、EM算法、密度聚類等)、降維與流形學習、集成學習、KNN、樸素貝葉斯、概率圖模型(包括貝葉斯網絡和HMM模型)等內容。
作者簡介
左飛,技術作家、譯者。
著作涉及圖像處理、編程語言和移動通信等多個領域,並翻譯出版了計算機領域的經典之作《編碼》,及Jolt震撼大獎獲獎作品《代碼閱讀》和《代碼質量》等多部圖書。
在數據分析、信息安全和圖像處理領域也有較深研究,在國際會議與核心學術期刊上發布論文多篇,併申請國家發明專利一項,多部相關著作再版多次、廣受好評。
現在的研究興趣主要集中在圖像處理、機器學習、數據分析技術和空間數據庫算法等領域。
目錄大綱
目錄
第1章機器學習初探
1.1初識機器學習
1.1.1從小蝌蚪找媽媽談起
1.1.2機器學習的主要任務
1.2工欲善其事,必先利其器
1.2.1scikitlearn
1.2.2NumPy
1.2.3SciPy
1.2.4Matplotlib
1.2.5Pandas
1.3最簡單的機器學習模型
1.3.1貝葉斯公式與邊緣分佈
1.3.2先驗概率與後驗概率
1.3.3樸素貝葉斯分類器原理
1.4泰坦尼克之災
1.4.1認識問題及數據
1.4.2數據預處理
1.4.3特徵篩選
1.4.4分類器的構建
1.4.5分類器的評估
第2章一元線性回歸
2.1回歸分析的性質
2.2回歸的基本概念
2.2.1總體的回歸函數
2.2.2隨機乾擾的意義
2.2.3樣本的回歸函數
2.3回歸模型的估計
2.3.1普通最小二乘法原理
2.3.2一元線性回歸的應用
2.3.3經典模型的基本假定
2.3.4總體方差的無偏估計
2.3.5估計參數的概率分佈
2.4正態條件下的模型檢驗
2.4.1擬合優度的檢驗
2.4.2整體性假定檢驗
2.4.3單個參數的檢驗
2.5一元線性回歸模型預測
2.5.1點預測
2.5.2區間預測
第3章多元線性回歸
3.1多元線性回歸模型
3.2多元回歸模型估計
3.2.1最小二乘估計量
3.2.2多元回歸的實例
3.2.3總體參數估計量
3.3從線代角度理解最小二乘
3.3.1最小二乘問題的通解
3.3.2最小二乘問題的計算
3.4多元回歸模型檢驗
3.4.1線性回歸的顯著性
3.4.2回歸系數的顯著性
3.5多元線性回歸模型預測
3.6格蘭傑因果關系檢驗
第4章線性回歸進階
4.1更多回歸模型函數形式
4.1.1雙對數模型以及生產函數
4.1.2倒數模型與菲利普斯曲線
4.1.3多項式回歸模型及其分析
4.2回歸模型的評估與選擇
4.2.1嵌套模型選擇
4.2.2赤池信息準則
4.3現代回歸方法的新進展
4.3.1多重共線性
4.3.2從嶺回歸到LASSO
4.3.3正則化與沒有免費午餐原理
4.3.4彈性網絡
4.3.5RANSAC
第5章邏輯回歸與最大熵模型
5.1邏輯回歸
5.2牛頓法解邏輯回歸
5.3應用實例: 二分類問題
5.3.1數據初探
5.3.2建模
5.4多元邏輯回歸
5.5最大熵模型
5.5.1最大熵原理
5.5.2約束條件
5.5.3模型推導
5.5.4極大似然估計
5.6應用實例: 多分類問題
5.6.1數據初探
5.6.2建模
第6章神經網絡
6.1從感知機開始
6.1.1感知機模型
6.1.2感知機學習
6.1.3多層感知機
6.1.4感知機應用示例
6.2基本神經網絡
6.2.1神經網絡結構
6.2.2符號標記說明
6.2.3後向傳播算法
6.3神經網絡實踐
6.3.1建模
6.3.2Softmax與神經網絡
第7章支持向量機
7.1線性可分的支持向量機
7.1.1函數距離與幾何距離
7.1.2最大間隔分類器
7.1.3拉格朗日乘數法
7.1.4對偶問題的求解
7.2鬆弛因子與軟間隔模型
7.3非線性支持向量機方法
7.3.1從更高維度上分類
7.3.2非線性核函數方法
7.3.3機器學習中的核方法
7.3.4默瑟定理
7.4對數據進行分類的實踐
7.4.1數據分析
7.4.2線性可分的例子
7.4.3線性不可分的例子
第8章k近鄰算法
8.1距離度量
8.2k近鄰模型
8.2.1分類
8.2.2回歸
8.3在Python中應用k近鄰算法
8.4k近鄰搜索的實現
8.4.1構建kdtree
8.4.2區域搜索
8.4.3最近鄰搜索
第9章決策樹
9.1決策樹基礎
9.1.1Hunt算法
9.1.2基尼測度與劃分
9.1.3信息熵與信息增益
9.1.4分類誤差
9.2決策樹進階
9.2.1ID3算法
9.2.2C4.5算法
9.3分類回歸樹
9.4決策樹剪枝
9.5決策樹應用實例
第10章集成學習
10.1集成學習的理論基礎
10.2Bootstrap方法
10.3Bagging與隨機森林
10.3.1算法原理
10.3.2應用實例
10.4Boosting與AdaBoost
10.4.1算法原理
10.4.2應用實例
10.5梯度提升
10.5.1梯度提升樹與回歸
10.5.2梯度提升樹與分類
10.5.3梯度提升樹的原理推導
第11章聚類分析
11.1聚類的概念
11.2k均值算法
11.2.1算法描述
11.2.2應用實例——圖像的色彩量化
11.3最大期望算法
11.3.1算法原理
11.3.2收斂探討
11.4高斯混合模型
11.4.1模型推導
11.4.2應用實例
11.5密度聚類
11.5.1DBSCAN算法
11.5.2應用實例
11.6層次聚類
11.6.1AGNES算法
11.6.2應用實例
11.7譜聚類
11.7.1基本符號
11.7.2正定矩陣與半正定矩陣
11.7.3拉普拉斯矩陣
11.7.4相似圖
11.7.5譜聚類切圖
11.7.6算法描述
11.7.7應用實例
第12章降維與流形學習
12.1主成分分析
12.2奇異值分解
12.2.1一個基本的認識
12.2.2為什麽可以做SVD
12.2.3SVD與PCA的關系
12.2.4應用舉例與矩陣的偽逆
12.3多維標度法
第13章採樣方法
13.1蒙特卡洛法求定積分
13.1.1無意識統計學家法則
13.1.2投點法
13.1.3期望法
13.2蒙特卡洛採樣
13.2.1逆採樣
13.2.2博克斯穆勒變換
13.2.3拒絕採樣與自適應拒絕採樣
13.3矩陣的極限與馬爾科夫鏈
13.4查普曼柯爾莫哥洛夫等式
13.5馬爾科夫鏈蒙特卡洛
13.5.1重要性採樣
13.5.2馬爾科夫鏈蒙特卡洛的基本概念
13.5.3梅特羅波利斯黑斯廷斯算法
13.5.4吉布斯採樣
第14章概率圖模型
14.1共軛分佈
14.2貝葉斯網絡
14.2.1基本結構單元
14.2.2模型推理
14.3貝葉斯網絡的Python實例
14.4隱馬爾科夫模型
14.4.1隨機過程
14.4.2從時間角度考慮不確定性
14.4.3前向算法
14.4.4維特比算法