全民瘋 AI 系列 - 經典機器學習

蔡易霖 著

  • 出版商: 深智
  • 出版日期: 2025-02-19
  • 定價: $790
  • 售價: 7.9$624
  • 語言: 繁體中文
  • 頁數: 472
  • ISBN: 6267569519
  • ISBN-13: 9786267569511
  • 相關分類: 人工智慧Machine Learning
  • 尚未上市,歡迎預購

  • 全民瘋 AI 系列 - 經典機器學習-preview-1
  • 全民瘋 AI 系列 - 經典機器學習-preview-2
  • 全民瘋 AI 系列 - 經典機器學習-preview-3
  • 全民瘋 AI 系列 - 經典機器學習-preview-4
  • 全民瘋 AI 系列 - 經典機器學習-preview-5
  • 全民瘋 AI 系列 - 經典機器學習-preview-6
  • 全民瘋 AI 系列 - 經典機器學習-preview-7
  • 全民瘋 AI 系列 - 經典機器學習-preview-8
  • 全民瘋 AI 系列 - 經典機器學習-preview-9
  • 全民瘋 AI 系列 - 經典機器學習-preview-10
  • 全民瘋 AI 系列 - 經典機器學習-preview-11
  • 全民瘋 AI 系列 - 經典機器學習-preview-12
  • 全民瘋 AI 系列 - 經典機器學習-preview-13
  • 全民瘋 AI 系列 - 經典機器學習-preview-14
  • 全民瘋 AI 系列 - 經典機器學習-preview-15
  • 全民瘋 AI 系列 - 經典機器學習-preview-16
  • 全民瘋 AI 系列 - 經典機器學習-preview-17
全民瘋 AI 系列 - 經典機器學習-preview-1

買這商品的人也買了...

相關主題

商品描述

全民瘋 AI 系列 - 經典機器學習

 

全方位解析AI應用,揭開機器學習開發中常見的十大新手陷阱。

 

從模型訓練到實際落地,全面掌握AI技術在真實世界中的應用與價值。

資料視覺化、清理、正規化與標準化,為AI模型做好全面準備。

非監督與監督學習技術解析,涵蓋分群、迴歸與分類,結合實際應用。

搭配十三種經典實務範例,深入掌握模型構建與優化技巧。

模型落地實踐與整合應用,結合FastAPI打造完整AI應用服務。

作者簡介

蔡易霖

AI軟體工程師,全民瘋AI系列發起人,專精於可解釋人工智慧、智慧製造和瑕疵檢測等領域,擁有超過二十個業界專案的豐富實戰經驗,應用範疇涵蓋智慧製造、醫療、交通與服務業等多個領域。熱衷於技術研究與知識分享,經常透過 Blog YouTube 平台分享人工智慧的實作教學與最新技術趨勢。致力於將複雜的技術概念轉化為簡單易懂的內容,幫助更多人了解並應用人工智慧技術。

目錄大綱

第 1 部分 AI 基礎概念
第 1 章 人工智慧基礎
1.1 探索 AI 的世界
1.1.1 人工智慧的範疇
1.1.2 何謂人工智慧?
1.1.3 人工智慧的演進
1.1.4 人工智慧的分級
1.2 機器學習大補帖
1.2.1 何謂機器學習?
1.2.2 機器如何學習?
1.2.3 資料學三劍客
1.2.4 機器學習流程
1.2.5 學 AI 該用哪種程式語言?
1.3 環境安裝指南
1.3.1 Anaconda 介紹與安裝
第 2 章 發現資料的秘密
2.1 資料的探索與準備
2.1.1 什麼是資料?
2.2 探索式資料分析
2.2.1 EDA 必要的套件
2.2.2 第一支EDA 程式:資料集一覽
2.2.3 資料集描述
2.2.4 載入資料集
2.2.5 直方圖
2.2.6 核密度估計圖
2.2.7 相關性熱圖
2.2.8 散佈圖
2.2.9 盒鬚圖
2.3 離群值的檢查與處理方法
2.3.1 檢查異常值的方法
2.3.2 處理異常值的方法
2.4 資料清理和前處理
2.4.1 缺失值的處理
2.4.2 類別資料的處理
2.5 數據正規化與標準化
2.5.1 正規化 (Normalization)
2.5.2 標準化(Standardization)
2.5.3 為何需要特徵縮放與轉換?
2.5.4 特徵縮放與轉換
第 2 部分 機器學習入門
第 3 章 非監督式學習:資料分群分類
3.1 何謂非監督式學習?
3.2 K-means 簡介

3.2.1 K-means 如何分群?
3.2.2 K-means 的最佳化目標
3.3 K-means 實務應用:群眾消費行為分群
3.3.1 資料集描述
3.3.2 載入資料集
3.3.3 建立K-means 模型
3.3.4 inertia 評估分群結果
3.3.5 視覺化分群結果
3.3.6 如何選擇最佳的K 值
3.4 降維技術在機器學習中的應用
3.4.1 降維的概念
3.4.2 主成分分析(PCA)
3.4.3 t- 隨機鄰近嵌入法(t-SNE)
3.5 降維實務應用:手寫數字降維視覺化
3.5.1 資料集描述
3.5.2 載入資料集
3.5.3 將資料切分成訓練集與測試集
3.5.4 建立PCA 模型
3.5.5 建立t-SNE 模型
第 4 章 線性模型
4.1 線性迴歸
4.1.1 線性迴歸簡介
4.1.2 線性迴歸的損失函數
4.1.3 線性模型求解方法:閉式解與梯度下降
4.2 線性迴歸實務應用:同步機勵磁電流預測
4.2.1 資料集描述
4.2.2 載入資料集
4.2.3 將資料切分成訓練集與測試集
4.2.4 特徵標準化
4.2.5 建立Linear Regression 模型
4.2.6 評估模型
4.2.7 迴歸係數分析
4.3 邏輯迴歸
4.3.1 邏輯迴歸簡介
4.3.2 邏輯迴歸學習機制
4.3.3 邏輯迴歸的損失函數
4.3.4 多分類邏輯迴歸
4.4 邏輯迴歸實務應用:鳶尾花朵分類
4.4.1 資料集描述
4.4.2 載入資料集
4.4.3 將資料切分成訓練集與測試集
4.4.4 建立Logistic regression 模型
4.4.5 評估模型
第 5 章 鄰近規則分析
5.1 k- 近鄰演算法
5.1.1 KNN 演算法原理
5.1.2 KNN 於分類和迴歸任務
5.1.3 KNN 度量距離的方法
5.1.4 比較KNN 與K-means 差異
5.2 KNN 實務應用:葡萄酒品種分類
5.2.1 資料集描述
5.2.2 載入資料集
5.2.3 將資料切分成訓練集與測試集
5.2.4 建立KNN 分類模型
5.2.5 評估模型
第 6 章 支援向量機
6.1 支援向量機簡介
6.1.1 支援向量機基本原理
6.1.2 超平面和支援向量
6.1.3 線性支援向量機
6.1.4 非線性支援向量機
6.2 支援向量機於分類和迴歸任務
6.2.1 SVM 分類器
6.2.2 SVM 迴歸器
6.2.3 參數調整技巧
6.3 SVM(分類)實務應用:手寫數字辨識
6.3.1 資料集描述
6.3.2 載入資料集
6.3.3 特徵前處理:t-SNE 降維
6.3.4 前置作業
6.3.5 建立SVM 分類模型
6.4 SVR(迴歸)實務應用:薪資預測
6.4.1 資料集描述
6.4.2 載入資料集
6.4.3 將資料切分成訓練集與測試集
6.4.4 建立SVR 迴歸模型
6.4.5 評估模型
6.4.6 視覺化預測:迴歸分析
第 7 章 決策樹
7.1 決策樹簡介
7.1.1 決策樹的基本概念
7.1.2 分類樹的生長過程
7.1.3 分類樹的評估指標
7.1.4 迴歸樹的生長過程
7.1.5 迴歸樹的評估指標
7.2 CART 決策樹
7.2.1 CART 演算法流程
7.2.2 決策樹剪枝
7.3 決策樹的可解釋性
7.3.1 決策樹的特徵重要性
7.4 決策樹(分類)實務應用:玻璃類型檢測
7.4.1 資料集描述
7.4.2 載入資料集
7.4.3 將資料切分成訓練集與測試集
7.4.4 建立分類決策樹模型
7.4.5 評估模型
7.4.6 模型的可解釋性
7.4.7 繪製決策邊界
7.5 決策樹(迴歸)實務應用:房價預測
7.5.1 資料集描述
7.5.2 載入資料集
7.5.3 特徵工程
7.5.4 將資料切分成訓練集與測試集
7.5.5 建立迴歸決策樹
7.5.6 評估模型
7.5.7 模型的可解釋性
第 8 章 整體學習
8.1 何謂整體學習?
8.1.1 特徵面
8.1.2 資料面
8.2 隨機森林
8.2.1 隨機森林簡介
8.2.2 隨機森林的生成方法
8.3 隨機森林(分類)實務應用:糖尿病罹患預測
8.3.1 資料集描述
8.3.2 載入資料集
8.3.3 將資料切分成訓練集與測試集
8.3.4 建立隨機森林分類模型
8.3.5 評估模型
8.3.6 模型的可解釋性
8.4 隨機森林(迴歸)實務應用:帕金森氏症評估預測
8.4.1 資料集描述
8.4.2 載入資料集
8.4.3 將資料切分成訓練集與測試集
8.4.4 建立隨機森林分類模型
8.4.5 評估模型
8.4.6 模型的可解釋性
8.5 極限梯度提升(XGBoost)
8.5.1 極限梯度提升簡介
8.5.2 XGBoost 模型結構
8.6 XGBoost(分類)實務應用:銀行客戶定存申辦預測
8.6.1 資料集描述
8.6.2 載入資料集
8.6.3 資料清理
8.6.4 將資料切分成訓練集與測試集
8.6.5 建立XGBoost 分類模型
8.6.6 評估模型
8.6.7 模型的可解釋性
8.7 XGBoost(迴歸)實務應用:汽車燃油效率預測
8.7.1 資料集描述
8.7.2 載入資料集
8.7.3 將資料切分成訓練集與測試集
8.7.4 建立XGBoost 迴歸模型
8.7.5 評估模型
8.7.6 模型的可解釋性
第 3 部分 進階概念與應用
第 9 章 交叉驗證和錯誤修正
9.1 不能忽視的過擬合與欠擬合
9.1.1 如何選擇最佳的模型?
9.1.2 過擬合 vs 欠擬合 
9.1.3 偏差與方差的差權衡
9.1.4 如何避免欠擬合?
9.1.5 如何避免過擬合?
9.2 交叉驗證簡介
9.2.1 何謂交叉驗證?
9.2.2 K-Fold 交叉驗證
9.3 機器學習常犯錯的十件事
9.3.1 資料收集與處理不當
9.3.2 訓練集與測試集的類別分佈不一致
9.3.3 沒有資料視覺化的習慣
9.3.4 使用錯誤方法為特徵編碼
9.3.5 資料處理不當導致資料洩漏
9.3.6 僅使用測試集評估模型好壞
9.3.7 在沒有交叉驗證的情況下判斷模型性能
9.3.8 分類問題僅使用準確率作為衡量模型的指標
9.3.9 迴歸問題僅使用 R2 分數評估模型好壞
9.3.10 任何事情別急著想用 AI 解決
第 10 章 模型落地實踐與整合應用
10.1 模型整合與部署
10.1.1 機器學習開發流程回顧
10.1.2 DevOps 與MLOps 概念簡介
10.1.3 如何將模型整合到實際應用中
10.2 儲存訓練好的模型
10.2.1 ONNX 簡介
10.2.2 將scikit-learn 模型輸出為ONNX 格式
10.3 使用ONNX Runtime 進行模型推論
10.3.1 ONNX Runtime 簡介
10.3.2 載入 ONNX 模型並進行推論
10.4 使用FastAPI 建立模型推論服務
10.4.1 FastAPI 框架介紹
10.4.2 Python 後端開發框架比較
10.4.3 撰寫第一個 FastAPI 應用
10.4.4 整合ONNX 模型於API 中
10.4.5 使用Postman 測試API
10.4.6 自動生成 AIP 文件
10.5 網頁推論與前後端整合
10.5.1 環境設定與準備
10.5.2 建立簡單的前端界面
10.5.3 前後端 API 串接