計算機視覺從入門到進階實戰:基於PyTorch
孫玉林
- 出版商: 化學工業
- 出版日期: 2024-08-01
- 定價: $594
- 售價: 8.5 折 $505
- 語言: 簡體中文
- 頁數: 352
- ISBN: 7122452026
- ISBN-13: 9787122452023
-
相關分類:
DeepLearning
下單後立即進貨 (約2週~3週)
相關主題
商品描述
本書基於PyTorch深度學習框架,結合計算機視覺中的主流任務,介紹了深度學習相關算法的計算機視覺上的應用。
本書主要內容分為兩部分。第一部分為PyTorch框架使用的相關知識,以及計算機視覺和深度學習的入門知識。第二部分重點介紹深度學習在計算機視覺上的應用,包括:經典的深度卷積網絡、深度注意力網絡,以及基於自注意力的Transformer系列網絡在圖像分類中的應用;R-CNN系列、YOLO系列、SSD系列目標檢測網絡的算法思想及在目標檢測中的應用;FCN、U-Net等全卷積網絡在圖像語義分割領域的應用;針對風格遷移任務,介紹了快速風格遷移、CycleGan等算法的實戰應用;針對自編碼器和擴散模型,介紹了相關算法在圖像重構、去噪以及生成相關計算機視覺任務中的實戰應用;介紹了遷移學習和域自適應的經典算法在跨域計算機視覺圖像分類任務中的應用。
本書適合對計算機視覺、深度學習、人工智能、PyTorch使用感興趣的初學者及研究人員自學使用,也可作為高等院校相關專業的教材及參考書。
目錄大綱
第1章 計算機視覺與深度學習
1.1 計算機視覺簡介
1.1.1 數字圖像處理基礎
1.1.2 主流計算機視覺任務
1.2 深度學習簡介
1.2.1 深度學習發展簡史
1.2.2 感知機與人工神經網絡
1.2.3 卷積神經網絡
1.2.4 循環神經網絡
1.2.5 優化算法
1.2.6 欠擬合與過擬合
1.3 Python與PyTorch安裝
1.3.1 安裝Python
1.3.2 安裝PyTorch
1.3.3 PyTorch核心模塊
1.3.4 PyTorch輔組庫
1.3.5 其他Python庫
1.4 本章小結
第2章 PyTorch快速入門
2.1 張量Tensor
2.1.1 張量的數據類型
2.1.2 張量的生成
2.1.3 張量操作
2.1.4 張量計算
2.2 torch.nn模塊
2.2.1 卷積層
2.2.2 池化層
2.2.3 填充層
2.2.4 激活函數層
2.2.5 歸一化函數層
2.2.6 循環層
2.2.7 全連接層
2.2.8 Transformer層
2.3 圖像數據操作和預處理
2.3.1 從datasets模塊中導入數據並預處理
2.3.2 從文件夾中導入數據並進行預處理
2.4 優化器與損失函數
2.4.1 優化器
2.4.2 損失函數
2.5 預訓練網絡
2.6 GPU部署和使用
2.7 本章小結
第3章 圖像分類
3.1 經典的深度圖像分類網絡
3.1.1 LeNet-5網絡
3.1.2 AlexNet網絡
3.1.3 VGG網絡結構
3.1.4 GoogLeNet
3.1.5 ResNet網絡
3.1.6 DenseNet網絡
3.1.7 CLIP模型
3.2 卷積神經網絡識別FashionMNIST
3.2.1 圖像數據準備
3.2.2 卷積神經網絡的搭建
3.2.3 卷積神經網絡訓練與預測
3.3 ResNet網絡預測CIFAR
3.3.1 圖像數據準備
3.3.2 ResNet網絡搭建
3.3.3 ResNet網絡訓練與預測
3.4 微調預訓練的卷積網絡
3.4.1 微調預訓練的VGG網絡
3.4.2 準備新網絡需要的數據
3.4.3 微調VGG網絡的訓練和預測
3.5 卷積網絡可視化
3.5.1 網絡中間特征可視化
3.5.2 類激活熱力圖可視化
3.6 CLIP模型應用
3.6.1 CLIP零樣本學習
3.6.2 CIFAR10使用CLIP特征分類
3.7 本章小結
第4章 目標檢測與識別
4.1 目標檢測方法
4.1.1 目標檢測算法分類
4.1.2 目標檢測評價指標
4.1.3 目標檢測常用損失函數
4.1.4 錨框與非極大值抑制
4.2 經典的目標檢測網絡
4.2.1 R-CNN系列網絡
4.2.2 YOLO系列網絡
4.2.3 SSD系列網絡
4.2.4 其他目標檢測網絡
4.3 使用預訓練的目標檢測網絡
4.3.1 目標檢測常用數據集
4.3.2 圖像目標檢測
4.3.3 人體關鍵點檢測
4.4 訓練自己的YOLOv3目標檢測網絡
4.4.1 PASCAL VOC數據準備
4.4.2 YOLOv3網絡搭建
4.4.3 YOLOv3網絡訓練
4.4.4 YOLOv3目標檢測
4.5 本章小結
第5章 語義分割
5.1 語義分割方法
5.2 經典的語義分割網絡
5.2.1 FCN
5.2.2 SegNet
5.2.3 U-Net
5.2.4 DeepLab系列
5.2.5 PSPNet
5.2.6 SAM
5.3 使用預訓練的語義分割網絡
5.3.1 使用預訓練網絡
5.3.2 語義分割評價指標
5.4 訓練自己的語義分割網絡
5.4.1 數據準備
5.4.2 FCN語義分割網絡
5.4.3 U-Net語義分割網絡
5.5 本章小結
第6章 注意力機制與Transformer
6.1 經典的注意力模型
6.1.1 SE-Net
6.1.2 SPANet
6.1.3 CBAM
6.1.4 Transformer
6.1.5 ViT
6.1.6 Swin Transformer
6.2 PyTorch預訓練ViT網絡應用
6.2.1 預訓練ViT網絡導入
6.2.2 CIFAR100數據準備
6.2.3 預訓練ViT網絡訓練與預測
6.3 ViT網絡圖像分類
6.3.1 ViT網絡搭建
6.3.2 CIFAR00數據準備
6.3.3 ViT網絡訓練與預測
6.4 本章小結
第7章 圖像風格遷移
7.1 經典的圖像風格遷移方法
7.1.1 固定風格固定內容的風格遷移
7.1.2 固定風格任意內容的風格遷移
7.1.3 任意風格任意內容的風格遷移
7.1.4 基於Gan的圖像風格遷移
7.2 固定風格固定內容的風格遷移
7.2.1 準備VGG19網絡
7.2.2 圖像數據準備
7.2.3 圖像的輸出特征和Gram矩陣的計算
7.2.4 進行圖像風格遷移
7.3 固定風格任意內容的風格遷移
7.3.1 快速風格遷移網絡準備
7.3.2 快速風格遷移數據準備
7.3.3 快速風格遷移網絡訓練和結果展示
7.4 CycleGan風格遷移
7.4.1 CycleGan網絡搭建
7.4.2 非成對圖像數據準備
7.4.3 網絡訓練
7.4.4 圖像轉換結果展示
7.5 本章小結
第8章 自編碼器與擴散模型
8.1 自編器模型與擴散模型介紹
8.1.1 自編碼器原理
8.1.2 變分自編碼器
8.1.3 VQ-VAE圖像生成
8.1.4 Stable Diffusion圖像生成
8.2 自編碼器圖像重構
8.2.1 自編碼網絡數據準備
8.2.2 自編碼網絡的構建
8.2.3 自編碼網絡的訓練
8.2.4 自編碼網絡的數據重構
8.2.5 網絡的編碼特征可視化
8.3 自編碼器圖像去噪
8.3.1 數據準備
8.3.2 網絡搭建
8.3.3 網絡訓練與預測
8.4 Stable Diffusion圖像生成
8.4.1 數據準備
8.4.2 網絡搭建
8.4.3 網絡訓練與預測
8.5 本章小結
第9章 遷移學習與域自適應
9.1 遷移學習簡介
9.1.1 遷移學習的定義
9.1.2 為什麽需要遷移學習
9.1.3 遷移學習的分類
9.1.4 度量準則
9.2 經典的遷移學習算法
9.2.1 基於深度遷移的finetune模型
9.2.2 基於對抗學習的遷移學習
9.2.3 基於對齊的遷移學習
9.2.4 基於偽標簽的遷移學習
9.2.5 其他遷移學習損失函數
9.3 遷移學習圖像分類實戰
9.3.1 數據和網絡準備工作
9.3.2 基於微調的遷移學習
9.3.3 基於對齊的遷移學習
9.3.4 基於對抗的遷移學習
9.3.5 基於目標域標簽互信息的遷移學習
9.4 本章小結
參考文獻