買這商品的人也買了...
-
$820$697 -
$539$512 -
$607大話機器學習 — 原理|算法|建模|代碼 30講
-
$454矽基物語.AI大爆炸
-
$650$507 -
$454從零開始大模型開發與微調:基於 PyTorch 與 ChatGLM
-
$454自然語言處理與應用
-
$750$592 -
$505內容理解:技術、演算法與實踐
-
$356$335 -
$650$507 -
$352大語言模型通識
-
$359$341 -
$354$336 -
$454LangChain 大模型 AI 應用開發實踐
-
$479$455
商品描述
本書採用理論與實訓案例相結合的形式,深入淺出地介紹了大模型的基礎知識。本書共分為8章,內容涵蓋大模型的基礎知識、傳統語言模型基礎知識、神經網絡基礎知識、大模型的主要技術、大模型的微調與部署、大模型的應用,以及面對的挑戰和未來發展等。在講解理論知識的同時,輔以實訓案例,聚焦核心技術與應用,引領AI技術新潮流 本書不僅適合作為高等院校人工智能、計算機科學與技術或相關專業學習大模型的入門教材,也適合從事相關工作的人工智能愛好者和工程師學習閱讀。
作者簡介
史衛亞,理學博士,副教授,電氣和電子工程師協會(IEEE)會員,中國計算機協會(CCF)會員。2009年獲得覆旦大學計算機應用專業博士學位。2015-2016年在美國北卡羅來納大學做訪問學者,現執教於河南工業大學信息科學與工程學院。主要研究方向為機器學習、數據庫、圖像和視頻處理、人工智能和模式識別等。先後在國內外核心期刊及國際會議上發表論文30多篇,其中SCI論文5篇,EI論文12篇。參加多項國家自然基金、河南省科技攻關項目,並作為主持人參與開發國內某上市燃氣企業收費系統、用戶管理系統、地理信息系統等多個應用項目。
目錄大綱
第1章 大模型概述
1.1 大模型概念及其發展
1.1.1 大模型基本概念
1.1.2 大模型的發展
1.1.3 大模型的分類
1.2 大規模語言模型的興起
1.3 大規模語言模型的發展歷程
1.3.1 大規模語言模型的定義
1.3.2 大規模語言模型的發展
1.3.3 大規模語言模型的主要類型
1.3.4 大規模語言模型的應用領域
1.4 大規模語言模型的特點及存在的問題
1.4.1 大規模語言模型的特點
1.4.2 大規模語言模型的湧現
1.4.3 存在的問題
1.5 視覺大模型
1.5.1 視覺大模型的發展
1.5.2 視覺大模型的主要應用
1.6 多模態大模型
1.6.1 多模態大模型的發展
1.6.2 多模態大模型的主要應用
1.7 案例實訓
1.8 本章小結
1.9 課後習題
第2章 語言模型基礎
2.1 統計語言模型
2.1.1 統計語言模型的定義
2.1.2 語言模型的評估指標
2.2 N-gram模型
2.2.1 N-gram模型數學基礎
2.2.2 N-gram例子
2.3 數據稀疏性與平滑技術
2.3.1 數據稀疏性
2.3.2 平滑技術
2.4 詞袋模型
2.4.1 詞袋模型的定義和構建步驟
2.4.2 詞袋模型的應用
2.5 案例實訓
2.5.1 實訓項目1:使用N-gram模型來判斷一個句子的合法性
2.5.2 實訓項目2:使用詞袋模型計算文本相似度
2.6 本章小結
2.7 課後習題
第3章 神經網絡語言模型
3.1 神經網絡基礎
3.1.1 感知機
3.1.2 Sigmoid神經元
3.1.3 神經網絡架構
3.1.4 神經網絡原理
3.2 循環神經網絡
3.2.1 循環神經網絡
3.2.2 循環神經網絡的定義
3.2.3 循環神經網絡的結構及原理
3.2.4 優缺點及應用場景
3.3 長短時記憶網絡
3.3.1 輸入門、遺忘門和輸出門
3.3.2 LSTM模型原理
3.4 詞向量表示Word2Vec
3.4.1 Word2Vec的定義
3.4.2 CBOW和Skip-Gram
3.4.3 Word2Vec優化策略
3.5 案例實訓——基於LSTM的情感分類案例
3.6 本章小結
3.7 課後習題
第4章 大模型的技術發展
4.1 Transformer模型介紹
4.2 自註意力機制
4.3 多頭註意力
4.4 位置編碼與掩碼
4.4.1 位置編碼
4.4.2 掩碼
4.5 Transformer模型的優化與變種
4.6 案例實訓
4.6.1 實訓項目1:基於Transformer模型的中英文翻譯系統
4.6.2 實訓項目2:搭建基礎的Transformer模型中英文翻譯系統
4.7 本章小結
4.8 課後習題
第5章 預訓練語言模型
5.1 預訓練語言模型概述
5.1.1 預訓練語言模型的概念
5.1.2 預訓練語言模型的基本原理
5.1.3 預訓練語言模型的關鍵技術
5.1.4 預訓練語言模型的應用場景
5.2 BERT系列模型
5.2.1 BERT模型的基本架構
5.2.2 模型微調
5.3 GPT系列模型
5.3.1 GPT發展歷程
5.3.2 GPT模型的基本架構
5.3.3 GPT模型的訓練
5.3.4 GPT版本的主要改進
5.4 ChatGPT模型
5.4.1 ChatGPT的訓練過程
5.4.2 ChatGPT的應用場景
5.5 其他大規模預訓練模型
5.6 案例實訓
5.7 本章小結
5.8 課後習題
第6章 大模型的微調與部署·
6.1 數據集與預處理
6.1.1 數據集的選擇
6.1.2 數據集的來源
6.1.3 數據集格式
6.1.4 數據集預處理
6.2 模型微調策略
6.2.1 指令微調
6.2.2 全微調
6.2.3 參數高效微調
6.3 提示工程
6.3.1 提示工程的定義
6.3.2 提示工程的關鍵要素
6.3.3 提示工程的其他技巧
6.3.4 提示工程的實際應用示例
6.3.5 提示工程的挑戰與未來展望
6.4 檢索增強生成
6.4.1 為什麽要引入檢索增強生成
6.4.2 檢索增強生成的步驟
6.4.3 檢索增強生成與微調的關系
6.5 模型壓縮
6.6 模型部署
6.7 大模型的評估與測試
6.7.1 大模型的評估
6.7.2 大模型的測試
6.8 LangChain框架
6.9 大模型應用開發的整體流程
6.9.1 大模型開發需要關註的問題
6.9.2 大模型開發的一般流程
6.10 案例實訓
6.10.1 實訓項目1:通義千問大模型的部署
6.10.2 實訓項目2:ChatGLM3-6B大模型的部署
6.11 本章小結
6.12 課後習題
第7章 大模型的應用
7.1 自然語言生成
7.2 問答系統
7.3 對話系統
7.4 專業領域的應用
7.4.1 法律領域
7.4.2 教育領域
7.4.3 金融領域
7.4.4 醫療領域
7.4.5 科學研究領域
7.4.6 工程技術領域
7.5 圖像大模型的應用
7.5.1 安防監控
7.5.2 自動駕駛
7.5.3 醫療診斷
7.5.4 零售與電商
7.5.5 智慧農業
7.5.6 更多創新應用
7.6 基於大模型的智能體
7.6.1 智能體