PyTorch深度學習實戰:建構、訓練與部署神經網路模型(原書第2版) PyTorch Recipes: A Problem-Solution Approach to Build, Train and Deploy Neural Network Models 2nd ed. Edition

Pradeepta Mishra 譯 王文通//劉強

買這商品的人也買了...

相關主題

商品描述

本書提供使用PyTorch 開發深度學習應用程式的基本原理和方法,
旨在為讀者介紹機器學習工程師與資料科學家在解決深度學習問題中所採用的主流現代演算法與技術,
緊跟深度學習領域的最新發展趨勢,助力初學者熟練PyTorch。
本書的核心優勢在於,採用易於理解的問題與解決方案的結構,
全面而詳盡地講解了PyTorch的使用方法,並提供了大量相應的程式碼範例,以便將這些概念順利應用於實際專案中。
本書適合對電腦視覺、自然語言處理等領域有興趣的人士閱讀。
對於希望在深度學習任務中運用PyTorch 的讀者,本書將是一本實用的指南。

作者簡介

關於作者

Pradeepta Mishra是一位在人工智慧領域具有深厚造詣的專家,擁有豐富的資料科學和人工智慧架構實踐經驗,目前擔任 FOSFOR 公司旗下 5 個產品的自然語言處理、機器學習及人工智慧計畫主管。FOSFOR 公司作為業界領先的人工智慧和機器學習創新公司,始終站在技術前沿。

Pradeepta Mishra 的專長在於設計卓越的人工智慧系統,特別是在理解和處理自然語言,以及基於自然語言處理的推薦系統方面展現出超凡的專業能力。他作為發明人共申請了 12 項專利,並在學術領域取得了豐碩的成果。他先後撰寫了 5 本著作,內容涵蓋資料挖掘、空間資料、文本資料、網絡資料和社交媒體資料等多個領域。這些書籍均由知名出版社出版發行,分別為:

- 《R 資料挖掘藍圖》(Packt 出版社,2016 年)
- 《R:挖掘空間、文本、網絡和社交媒體資料》(Packt 出版社,2017 年)
- 《PyTorch 秘籍》(Apress,2019 年)
- 《Python 實用說明性人工智慧》(Apress,2022 年)

基於這些學術成果,他還在在線教育平台 Udemy 上開設了兩門相關課程,為廣大學員提供了寶貴的學習資源。

在 2018 年全球資料科學大會上,Pradeepta 發表了關於雙向 LSTM 在時間序列預測中的主題演講,為參會者提供了深入的技術見解。此外,他在 TED 演講中探討了人工智慧對行業轉型和變革工作角色的影響,引發了廣泛的思考和討論。

Pradeepta 不僅在專業領域有所建樹,還熱衷於分享他的知識和經驗。曾在各類聚會、技術機構、大學和社區論壇上進行了 150 余場技術演講,為聽眾提供了寶貴的洞見。

如需了解更多關於 Pradeepta 的資訊,請訪問他的 LinkedIn 頁面:[www.linkedin.com/in/pradeepta/](http://www.linkedin.com/in/pradeepta/) 或關注他的 Twitter 帳號:@pradmishra1。

 

關於技術審查員

Chris Thomas 是一位在人工智慧和機器學習領域擁有豐富研究和開發經驗的英國顧問。他還是英國分析師和程式員協會的專業會員,擁有超過 20 年的技術專業生涯經驗。

在此期間,他曾在公共部門、半導體行業、金融、公用事業和行銷領域擔任要職,積累了豐富的實踐經驗。

 

目錄大綱

目 錄
譯者序
關於作者
關於技術審查員
致謝
前言
第1 章 PyTorch 入門,張量與張量運算 1
什麼是PyTorch 5
PyTorch 安裝 5
秘技1-1 張量的使用 7
小結 36
第2 章 使用PyTorch 中的機率分佈 37
秘籍2-1 採樣張量 38
秘籍2-2 可變張量 43
秘籍2-3 統計學基礎 45
秘籍2-4 梯度計算 51
秘籍2-5 張量運算之一 54
秘籍 2-6 張量運算之二 55
秘籍2-7 統計分佈 58
小結 62
第3 章 使用PyTorch 中的捲積神經網路與循環神經網路 63
秘籍 3-1 設定損失函數 63
秘籍3-2 估計損失函數的導數 67
秘籍3-3 模型微調 73
秘籍3-4 最佳化函數選擇 75
秘籍3-5 進一步最佳化函數 80
秘籍3-6 實現卷積神經網路 84
秘籍3-7 模型重載 92
秘籍3-8 實現循環神經網路 96
秘籍3-9 實現用於回歸問題的循環神經網路 102
秘籍3-10 使用PyTorch 內建的循環神經網路函數 104
秘籍3-11 使用自編碼器(Autoencoder) 108
秘籍 3-12 使用自編碼器實現結果微調 113
秘籍3-13 約束模型過擬合 116
秘籍3-14 可視化模型過擬合 119
秘籍3-15 初始化權重中的丟棄率 123
秘籍3-16 新增數學運算 125
秘籍3-17 循環神經網路中的嵌入層 128
小結 130
第4 章 PyTorch 中的神經網路簡介 131
秘籍4-1 激活函數的使用 131
秘籍4-2 激活函數視覺化 139
秘籍4-3 基本的神經網路模型 142
秘籍4-4 張量微分 146
小結 148
第5 章 PyTorch 中的監督學習 149
秘籍5-1 監督模型的資料準備 153
秘籍5-2 前向和反向傳播神經網路 155
秘籍5-3 最佳化與梯度計算 158
秘籍5-4 查看預測結果 160
秘籍5-5 監督模型邏輯迴歸 164
小結 168
第6 章 使用PyTorch 對深度學習模型進行微調 169
秘籍6-1 建構順序神經網路 170
秘籍6-2 決定批量的大小 172
秘籍6-3 確定學習率 175
秘籍6-4 執行平行訓練 180
小結 182
第7 章 使用PyTorch 進行自然語言處理 183
秘籍7-1 詞嵌入 185
秘籍7-2 使用PyTorch 建立CBOW 模型 190
秘籍7-3 LSTM 模型 194
小結 199
第8 章 分散式PyTorch 建模、模型最佳化與部署 200
秘籍8-1 分散式Torch 架構 200
秘技8-2 Torch 分散式元件 202
秘籍8-3 設定分佈式PyTorch 203
秘籍8-4 載入資料到分散式PyTorch 205
秘籍8-5 PyTorch 中的模型量化 208
秘籍8-6 量化觀察器應用 211
秘籍8-7 使用MNIST 資料集應用量化技術 213
小結 225
第9 章 影像與音訊的資料增強、特徵工程與擷取 226
秘籍9-1 音訊處理中的頻譜圖 226
秘籍9-2 安裝Torchaudio 229
秘籍9-3 將音訊檔案載入到PyTorch 中 231
秘籍9-4 安裝用於音訊的Librosa 庫 232
秘籍9-5 頻譜圖變換 234
秘籍9-6 Griffin-Lim 變換 236
秘籍9-7 使用濾波器組進行梅爾尺度轉換 237
秘籍9-8    Librosa 的梅爾尺度轉換與Torchaudio 版本比較 240
秘籍9-9     使用Librosa 和Torchaudio 進行MFCC 和LFCC 243
秘技9-10 影像資料增強 247
小結 250
第10 章 PyTorch 模型可解釋性和Skorch 251
秘籍10-1 安裝Captum 庫 252
秘籍10-2 主要歸因:深度學習模型的特徵重要性 253
秘籍10-3 深度學習模型中神經元的重要性 259
秘技10-4 安裝Skorch 庫 260
秘技10-5 Skorch 元件在神經網路分類器的應用 262
秘籍10-6 Skorch 神經網路迴歸器 265
秘籍10-7 Skorch 模型的保存與載入 269
秘技10-8 使用Skorch 創建神經網路模型管線 270
秘技10-9    使用Skorch 進行神經網路模型的輪次評分 272
秘技10-10 使用Skorch 進行超參數的網格搜尋 274
小結 276

最後瀏覽商品 (1)