AI芯片應用開發實踐

曾維 王洪輝 朱星

  • 出版商: 機械工業
  • 出版日期: 2025-02-01
  • 定價: $414
  • 售價: 8.5$352
  • 語言: 簡體中文
  • 頁數: 218
  • ISBN: 7111773543
  • ISBN-13: 9787111773542
  • 相關分類: 半導體
  • 下單後立即進貨 (約4週~6週)

相關主題

商品描述

本書是一本關於AI芯片的綜合指南,不僅系統介紹了AI芯片的基礎知識和發展趨勢,還重點介紹了AI芯片在各個領域的應用與開發。 本書共分為9章,包括:認識AI芯片、AI芯片開發平臺、數據預處理、AI芯片應用開發框架、AI芯片常用模型的訓練與輕量化、模型的推理框架——ONNX Runtime、FPGA類AI芯片的開發實踐、同構智能芯片平臺應用開發實踐和異構智能芯片平臺應用開發實踐。 本書理論聯系實際,突出了AI芯片應用的實踐特色,能夠很好地滿足高校人工智能、電子信息工程、智能製造工程等專業AI芯片與應用開發人才的培養的需求,也非常適合AI芯片開發工程師技能提升的需求。

目錄大綱

前言
1 認識AI芯片
1.1 AI芯片概述
1.2 AI芯片分類
1.2.1 傳統中央微處理器——MPU
1.2.2 通用芯片——GPU
1.2.3 半定製化芯片——FPGA
1.3 AI芯片開發的通用流程
1.3.1 選擇AI芯片開發平臺
1.3.2 數據預處理
1.3.3 模型訓練與模型的輕量化
1.3.4 框架選擇與模型推理
1.3.5 芯片環境配置與模型部署
1.4 AI芯片常用功能加速模塊
1.4.1 功能加速模塊概述
1.4.2 視覺處理加速器——VPAC
1.4.3 深度和運動感知加速器——DMPAC
1.4.4 深度學習加速器——DLA
1.4.5 視覺加速器——PVA
1.5 本章小結
1.6 本章習題
2 AI芯片開發平臺
2.1 AI芯片硬件平臺的分類
2.1.1 同構AI芯片硬件平臺
2.1.2 異構AI芯片硬件平臺
2.2 AI芯片開發平臺的常用外設
2.2.1 網絡設備
2.2.2 顯示模塊和攝像頭模塊
2.2.3 模數轉換器模塊ADC
2.2.4 通用輸入/輸出模塊GPIO
2.2.5 IIC控制器
2.3 本章小結
2.4 本章習題
3 數據預處理
3.1 深度學習數據預處理概述
3.2 常用的數據預處理方法
3.2.1 零均值化(中心化)
3.2.2 歸一化(標準化)
3.2.3 主成分分析(PCA)
3.2.4 白化(Whitening)
3.3 視頻數據預處理——基於GStreamer
3.3.1 GStreamer概述
3.3.2 GStreamer工具
3.3.3 GStreamer的使用方法
3.3.4 編寫GStreamer的插件
3.4 本章小結
3.5 本章習題
4 AI芯片應用開發框架
4.1 AI芯片應用開發框架概述
4.2 常用的AI芯片應用開發框架
4.2.1 基於NVIDIA的開發框架TensorRT
4.2.2 Google Research的開發框架MediaPipe
4.2.3 英特爾的開發框架OpenVINO
4.2.4 針對手機端的開發框架NCNN
4.3 開發框架應用示例:車牌識別
4.3.1 數據集
4.3.2 車牌區域檢測
4.3.3 車牌識別算法
4.3.4 模型訓練
4.3.5 模型部署
4.4 本章小結
4.5 本章習題
5 AI芯片常用模型的訓練與輕量化
5.1 常用的網絡模型
5.1.1 深度神經網絡(DNN)
5.1.2 捲積神經網絡(CNN)
5.1.3 殘差網絡(ResNet)
5.1.4 生成對抗網絡(GAN)
5.1.5 循環神經網絡(RNN)
5.1.6 長短記憶網絡(LSTM)
5.1.7 Transformer
5.1.8 大語言模型GPT
5.2 常用的模型學習類型
5.2.1 監督學習
5.2.2 半監督學習
5.2.3 無監督學習
5.2.4 強化學習
5.3 模型的輕量化方法
5.3.1 模型輕量化的概念與作用
5.3.2 基於結構優化的輕量化方法
5.3.3 基於參數量化的輕量化方法
5.3.4 基於網絡剪枝的輕量化方法
5.3.5 基於知識蒸餾技術的輕量化方法
5.4 輕量化模型設計實例:YOLOFire目標檢測算法
5.4.1 YOLOFire檢測算法設計
5.4.2 網絡整體結構
5.4.3 基於相關性的損失函數
5.4.4 模型訓練
5.4.5 實驗過程與結果
5.5 本章小結
5.6 本章習題
6 模型的推理框架——ONNX Runtime
6.1 ONNX Runtime概述
6.2 ONNX Runtime推理流程
6.2.1 安裝環境
6.2.2 訓練模型
6.2.3 將模型轉換導出為ONNX格式
6.2.4 使用ONNX Runtime加載運行模型
6.3 ONNX格式轉換工具
6.3.1 MXNet轉換成ONNX
6.3.2 TensorFlow轉換成ONNX
6.3.3 PyTorch轉換成ONNX
6.4 ONNX Runtime示例:邏輯回歸算法(基於scikitlearn的實現)
6.4.1 ONNX Runtime模型運行過程
6.4.2 訓練模型
6.4.3 將模型轉換導出為ONNX格式
6.4.4 使用ONNX Runtime加載運行模型
6.4.5 ONNX Runtime中實現邏輯回歸算法實例
6.5 本章小結
6.6 本章習題
7 FPGA類AI芯片的開發實踐
7.1 開發工具Vitis AI概述
7.2 Vitis AI的常用參數化IP核
7.2.1 DPUCZDX8G概述
7.2.2 高性能通用CNN處理引擎DPUCVDX8G
7.2.3 高吞吐量通用CNN處理引擎DPUCVDX8H
7.2.4 包含最優化的深度學習模型的Vitis AI Model Zoo
7.3 Vitis AI開發工具包
7.3.1 Vitis AI量化器
7.3.2 Vitis AI優化器
7.3.3 Vitis AI編譯器
7.3.4 Vitis AI Profiler(分析器)
7.3.5 Vitis AI庫
7.4 Vitis AI應用開發示例:應用Zynq監測道路裂縫
7.5 本章小結
7.6 本章習題
8 同構智能芯片平臺應用開發實踐
8.1 Jetson Nano開發者套件簡介
8.2 使用前的準備
8.2.1 安裝風扇
8.2.2 安裝無線網卡
8.2.3 安裝攝像頭
8.2.4 配置系統
8.3 開發實踐:行人識別
8.3.1 模型訓練
8.3.2 實驗環境
8.3.3 行人檢測功能測試
8.4 本章小結
8.5 本章習題
9 異構

最後瀏覽商品 (20)