強化學習(RL):使用 PyTorch 徹底精通 (有些許瑕疵,不影響閱讀)
高揚、葉振斌
- 出版商: 深智
- 出版日期: 2020-03-19
- 定價: $780
- 售價: 7.9 折 $616
- 語言: 繁體中文
- 頁數: 512
- 裝訂: 平裝
- ISBN: 9865501228
- ISBN-13: 9789865501228
-
相關分類:
DeepLearning、Reinforcement、化學 Chemistry
- 此書翻譯自: 白話強化學習與 PyTorch
已絕版
買這商品的人也買了...
-
$332深度學習框架 PyTorch : 入門與實踐
-
$520$411 -
$580$458 -
$500$395 -
$857強化學習, 2/e (Reinforcement Learning: An Introduction, 2/e)
-
$1,200$1,020 -
$690$538 -
$690$587 -
$880$748 -
$540$486 -
$680$537 -
$520$406 -
$500$390 -
$505深度強化學習:學術前沿與實戰應用
-
$500$390 -
$680$449 -
$780$663 -
$780$616 -
$780$616 -
$580$435 -
$580$458 -
$491PyTorch 深度學習實戰:從新手小白到數據科學家
-
$780$616 -
$1,000$850 -
$1,200$792
相關主題
商品描述
本書特色
◎用簡單的範例理解複雜的強化學習概念
◎用幽默的語言跨過強化學習的門檻
內容簡介
本書從「零」開始,以 PyTorch框架為基礎,介紹深度學習和強化學習的技術與技巧,沒有學過微積分等高級理論的程式師也能夠讀得懂、學得會。配合漫畫插圖來調節閱讀氣氛,並在每個原理說明的部分提供比較和實例說明。
作者使用具有高中數學基礎的讀者就能夠了解的語言,和讀者分享如何用深度學習的利器PyTorch來完成人工智慧機器人自我進化的完整過程。
即使是不懂強化學習的讀者,都能透過本書完成屬於自己的簡單、實用的小專案。
全書重點如下:
涵蓋最重要的深度學習數學基礎,但又不會過於繁雜
不止強化學習,從深度學習開始著手,完整理論及實作
完整DNN、CNN、RNN、LSTM說明及實作,打下紮實基礎
RL完整演算法實作,包括Q-Learning、DQN、SARSA、Policy Gradient、A3C、UNREAL模型
Model-based, Model-free、OnLine, Off-line learning完全說明
NEAT演算法、遺傳演算法實作,OpenAI的gym、SerpentAI實作
讓AI幫你打星海爭霸、刀塔II
AlphaGo、以及更強大的AlphaGo Zero原理完全解析
本書主要內容:
■ 第1章~第5章,傳統強化學習的研究目標與脈絡,主要介紹如何從一個程式設計師的角度了解強化學習最為輕鬆,偏重於了解方式的誘導。
■ 第6章~第11章,本書的核心內容,介紹深度學習的原理、PyTorch架構的基礎及深度強化學習的常用演算法模型。
■ 第12章~第15章,有關擴充性的知識。例如,其他有助訓練模型的演算法想法,協力廠商工具外掛程式,可供實驗的環境,一些有趣的強化學習演算法和觀點,甚至模型落地過程中的最佳化與壓縮。
■ 附錄A 詳細記載本書相關的各種軟體環境的安裝和設定過程。
適合讀者群:對深度學習和強化學習有興趣的初學者,或相關技術人員。
作者簡介
高揚
金山辦公軟體人工智能組技術負責人,歷任歡聚時代人工智慧演算法專家,金山軟體西山居大數據架構師等職。重慶工商大學研究生導師,電子工業出版社博文視點專家委員,有多年海外工作經驗。
葉振斌
網易遊戲伏羲人工智慧實驗室高級深度學習研發工程師。從事機器學習,特別是強化學習智慧演算法的研究及開發工作。擁有豐富的軟體開發、人工智慧演算法訓練平台開發經驗。
萬娟
華為設計師。資深UI設計師,多年產品交互與視覺設計經驗,對TOB企業系統應用設計與TOC使用者產品設計有深入的理解與豐富實作經驗。多次參與華為企業內系統設計與智慧家居、智慧設備等UI及交互設計。
目錄大綱
前言
第一篇 傳統篇
01 | 強化學習是什麼
1.1 題設
1.2 強化學習的研究物件
1.3 本章小結
02 | 強化學習的脈絡
2.1 什麼是策略
2.2 什麼樣的策略是好的策略
2.3 什麼是模型
2.4 如何獲得一個好的策略
2.5 馬可夫決策過程
2.6 Model-Based 和Model-Free
2.7 本章小結
03 | 動態規劃
3.1 狀態估值
3.2 策略最佳化
3.3 本章小結
04 | 蒙地卡羅法
4.1 歷史由來
4.2 狀態估值
4.3 兩種估值方法
4.4 弊端
4.5 本章小結
05 | 時間差分
5.1 SARSA 演算法
5.2 Q-Learning 演算法
5.3 On-Policy 和Off-Policy
5.4 On-Line 學習和Off-Line 學習
5.5 比較與討論
5.6 本章小結
第二篇 現代篇
06 | 深度學習
6.1 PyTorch 簡介
6.2 神經元
6.3 線性回歸
6.4 激勵函數
6.5 神經網路
6.6 網路訓練
6.7 深度學習的優勢
6.8 手寫數字識別公開資料集
6.9 全連接網路
6.10 卷積神經網路
6.11 循環神經網路
6.12 其他注意事項
6.13 深度神經網路的發展趨勢
6.14 本章小結
07 | Gym--不要錢的試驗場
7.1 簡介
7.2 安裝
7.3 類別
7.4 介面
7.5 本章小結
08 | DQN 演算法族
8.1 2013 版DQN
8.2 2015 版DQN
8.3 Double DQN
8.4 Dueling DQN
8.5 優先重播DQN
8.6 本章小結
09 | PG 演算法族
9.1 策略梯度
9.2 DPG
9.3 Actor-Critic
9.4 DDPG
9.5 本章小結
10 | A3C
10.1 模型結構
10.2 本章小結
11 | UNREAL
11.1 主工作
11.2 像素控制工作
11.3 獎勵值預測
11.4 值函數重播
11.5 損失函數
11.6 本章小結
第三篇 擴充篇
12 | NEAT
12.1 遺傳演算法
12.2 NEAT 原理
12.3 NEAT 範例
12.4 本章小結
13 | SerpentAI
13.1 簡介
13.2 安裝和設定
13.3 範例
13.4 本章小結
14 | 案例詳解
14.1 AlphaGo
14.2 AlphaGo Zero
14.3 試驗場大觀
14.4 本章小結
15 | 擴充討論
15.1 TRPO
15.2 反向強化學習
15.3 模型壓縮·
15.4 本章小結
A | 附錄
A.1 安裝Ubuntu
A.2 安裝CUDA 環境
A.3 安裝PyTorch
A.4 下載本書範例程式
A.5 安裝PyCharm
A.6 安裝Jupyter Notebook
A.7 安裝相關Python 相依套件
A.8 安裝OpenCV
A.9 Python 語言簡介
A.10 本書有關的主要開放原始碼軟體版本
B | 參考文獻