機器學習的數學基礎
郝珊鋒 黃定江
- 出版商: 機械工業
- 出版日期: 2024-11-01
- 定價: $834
- 售價: 8.5 折 $709
- 語言: 簡體中文
- 頁數: 372
- ISBN: 711176322X
- ISBN-13: 9787111763222
-
相關分類:
Machine Learning
- 此書翻譯自: Mathematics for Machine Learning (Paperback)
下單後立即進貨 (約4週~6週)
商品描述
理解機器學習所需的基本數學工具包括線性代數、解析幾何、矩陣分解、向量微積分、優化、概率和統計。傳統上,這些主題是在不同的課程中介紹的,這使得數據科學或計算機科學專業的學生或者專業人士很難有效地學習數學基礎。本書彌補了純數學書籍和機器學習書籍存在的單一性問題,介紹了理解機器學習必備的數學概念,並使用這些概念推導出了四種核心機器學習方法:線性回歸、主成分分析、高斯混合模型和支持向量機。對於學生和其他具有數學背景的人來說,這些推導可以作為理解機器學習的一個起點。對於首次學習數學的人來說,這些方法有助於建立應用數學概念的直覺和實踐經驗。本書每一章都包括一些例子,大部分章還配有習題,以便讀者檢驗和鞏固所學知識
作者簡介
馬克·彼得·戴森羅特(Marc Peter Deisenroth),倫敦大學學院計算機科學系的DeepMind人工智能主席、2012年歐洲強化學習研討會(EWRL)的項目主席、2013年機器人科學與系統(RSS)研討會的主席。他曾在倫敦帝國理工學院計算機系任教。他的研究領域包括數據高效學習、概率建模和自主決策,曾獲得2014年國際機器人與自動化會議(ICRA)和2016年國際控制、自動化和系統會議(ICCAS)的最佳論文獎,是谷歌教師研究獎(Google Faculty Research Award)和微軟博士資助的獲得者。2018年,他被授予倫敦帝國理工學院傑出青年研究員總統獎
目錄大綱
譯者序
前言
符號表
縮略語和首字母縮略詞表
第一部分 數學基礎
第1章 引言與動機
1.1 尋找直觀的詞語
1.2 閱讀本書的兩種方法
習題和反饋
第2章 線性代數
2.1 線性方程組
2.2 矩陣
2.2.1 矩陣加法與乘法
2.2.2 逆和轉置
2.2.3 標量乘法
2.2.4 線性方程組的簡潔表示
2.3 解線性方程組
2.3.1 特解和通解
2.3.2 初等變換
2.3.3 -1技巧
2.3.4 求解線性方程組的算法
2.4 向量空間
2.4.1 群
2.4.2 向量空間
2.4.3 向量子空間
2.5 線性無關
2.6 基與秩
2.6.1 生成集與基
2.6.2 秩
2.7 線性映射
2.7.1 線性映射的矩陣表示
2.7.2 基變換
2.7.3 象與核
2.8 仿射空間
2.8.1 仿射子空間
2.8.2 仿射映射
2.9 延伸閱讀
習題
第3章 解析幾何
3.1 範數
3.2 內積
3.2.1 點積
3.2.2 一般內積
3.2.3 對稱正定矩陣
3.3 長度和距離
3.4 角度和正交性
3.5 標準正交基
3.6 正交補
3.7 函數內積
3.8 正交投影
3.8.1 一維子空間(線)的投影
3.8.2 投影到一般子空間上
3.8.3 Gram-Schmidt正交化
3.8.4 在仿射子空間上的投影
3.9 旋轉
3.9.1 在R2上旋轉
3.9.2 在R3上旋轉
3.9.3 在Rn上旋轉
3.9.4 旋轉的性質
3.10 延伸閱讀
習題
第4章 矩陣分解
4.1 行列式和跡
4.2 特徵值和特徵向量
4.3 Cholesky分解
4.4 特徵分解和對角化
4.5 奇異值分解
4.5.1 SVD的幾何直觀
4.5.2 SVD的構造
4.5.3 特徵分解與奇異值分解
4.6 矩陣近似
4.7 矩陣發展史
4.8 延伸閱讀
習題
第5章 向量微積分
5.1 一元函數的微分
5.1.1 泰勒級數
5.1.2 求導法則
5.2 偏微分和梯度
5.2.1 偏微分的基本法則
5.2.2 鏈式法則
5.3 向量值函數的梯度
5.4 矩陣梯度
5.5 梯度計算中的常用等式
5.6 反向傳播與自動微分
5.6.1 深度網絡中的梯度
5.6.2 自動微分
5.7 高階導數
5.8 線性化和多元泰勒級數
5.9 延伸閱讀
習題
第6章 概率和分佈
6.1 概率空間的構造
6.1.1 哲學問題
6.1.2 概率與隨機變量
6.1.3 統計
6.2 離散概率和連續概率
6.2.1 離散概率
6.2.2 連續概率
6.2.3 離散分佈和連續分佈的對比
6.3 加法法則、乘法法則和貝葉斯定理
6.4 概要統計量和獨立性
6.4.1 均值與方差
6.4.2 經驗均值與協方差
6.4.3 方差的三種表達
6.4.4 隨機變量的求和與變換
6.4.5 統計獨立性
6.4.6 隨機變量的內積
6.5 高斯分佈
6.5.1 高斯分佈的邊緣分佈和條件分佈是高斯分佈
6.5.2 高斯密度的乘積
6.5.3 求和與線性變換
6.5.4 多元高斯分佈抽樣
6.6 共軛與指數族
6.6.1 共軛
6.6.2 充分統計量
6.6.3 指數族
6.7 變量替換/逆變換
6.7.1 分佈函數技巧
6.7.2 變量替換
6.8 延伸閱讀
習題
第7章 連續優化
7.1 使用梯度下降的優化
7.1.1 步長
7.1.2 動量梯度下降法
7.1.3 隨機梯度下降
7.2 約束優化和拉格朗日乘子
7.3 凸優化
7.3.1 線性規劃
7.3.2 二次規劃
7.3.3 Legendre-Fenchel變換和凸共軛
7.4 延伸閱讀
習題
第二部分 機器學習的核心問題
第8章 模型結合數據
8.1 數據、模型與學習
8.1.1 用向量表示數據
8.1.2 模型的函數表示
8.1.3 模型的概率分佈表示
8.1.4 學習即尋找參數
8.2 經驗風險最小化
8.2.1 函數的假設類別
8.2.2 訓練數據的損失函數
8.2.3 正則化以減少過擬合
8.2.4 用交叉驗證評估泛化性能
8.2.5 延伸閱讀
8.3 參數估計
8.3.1 最大似然估計
8.3.2 最大後驗估計
8.3.3 模型擬合
8.3.4 延伸閱讀
8.4 概率建模與推理
8.4.1 概率模型
8.4.2 貝葉斯推理
8.4.3 隱變量模型
8.4.4 延伸閱讀
8.5 有向圖模型
8.5.1 圖語義
8.5.2 條件獨立和d分離
8.5.3 延伸閱讀
8.6 模型選擇
8.6.1 嵌套交叉驗證
8.6.2 貝葉斯模型選擇
8.6.3 模型比較的貝葉斯因子
8.6.4 延伸閱讀
第9章