會話式AI:自然語言處理與人機交互
杜振東//塗銘
- 出版商: 機械工業
- 出版日期: 2020-09-01
- 定價: $474
- 售價: 8.5 折 $403
- 語言: 簡體中文
- 頁數: 273
- 裝訂: 平裝
- ISBN: 7111664191
- ISBN-13: 9787111664192
-
相關分類:
Text-mining
立即出貨 (庫存 < 3)
買這商品的人也買了...
-
$500$390 -
$420$328 -
$454TensorFlow 與自然語言處理應用
-
$708$673 -
$602$566 -
$594$564 -
$1,200$792 -
$890$587 -
$505知識圖譜與深度學習
-
$690$538 -
$261知識圖譜的自然語言查詢和關鍵詞查詢
-
$880$695 -
$414$393 -
$301自然語言處理與計算語言學
-
$780$515 -
$780$515 -
$780$616 -
$269深度學習自然語言處理實戰
-
$454$427 -
$680$537 -
$509CTF 安全競賽入門
-
$780$616 -
$1,000$790 -
$680$537 -
$880$695
相關主題
商品描述
這是一部講解如何基於NLP技術和人機交互技術實現聊天機器人的著作。
兩位作者聊天機器人領域均有多年大型項目的實戰經驗,這本書不僅講解了NLP和人機交互的核心技術,
而且從技術、算法、實戰3個維度講解聊天機器人的原理、實現與工程實踐。
本書有3個特點: 前瞻性強,專注於NLP和人機交互的前沿技術,以及會話式AI技術在熱門場景中的工程實踐。
實戰性強,每章都提供實戰代碼,大部分代碼簡單修改後便可在實際場景中使用;
數據集並非簡單構造,而是具有真實性。
對比性強,結合應用場景,對比不同技術的優劣,既能指導讀者進行技術選型,又能加深讀者對不同技術的理解。
本書一共12章,分為三大部分:
第一部分基礎篇(第1-2章) 首先系統介紹了人機交互技術和聊天機器人技術的必備基礎,
然後講解了深度學習工具的使用以及NLP開發環境的搭建第二部分算法篇(第3-8章) 這部分是核心內容,
主要講解中文自然語言處理的各種算法,包括分詞技術、數據預處理、詞向量技術、
序列標註與中文NER 、文本深度學習、循環神經網絡等。
第三部分實戰篇(第9-12章) 主要講解了語言模型與對話生成、知識圖譜問答、自然語言推理、
實體語義理解這4種人機交互方面的高階技術,涵蓋信息抽取、
槽位填充、語義理解、聊天機器人、問答系統、多輪對話技術等知識點。
作者簡介
塗銘
阿里巴巴數據架構師,對大數據、自然語言處理、Python、Java相關技術有深入的研究,積累了豐富的實踐經驗。
曾就職於北京明略數據,是大數據方面的高級諮詢顧問。
在工業領域參與了設備故障診斷項目,在零售行業參與了精準營銷項目。
在自然語言處理方面,擔任導購機器人項目的架構師,主導開發機器人的語義理解、短文本相似度匹配、
上下文理解,以及通過自然語言檢索產品庫,在項目中構建了NoSQL+文本檢索等大數據架構,
同時也負責問答對的整理和商品屬性的提取,帶領NLP團隊構建語義解析層。
目錄大綱
目錄
前言
第1章人機交互導論
1.1圖靈測試
1.1.1圖靈測試相關背景
1.1.2圖靈測試的定義
1.1.3圖靈測試引發的思考
1.2專家系統
1.2.1專家系統的定義
1.2.2專家系統的框架
1.2.3專家系統的發展
1.3人機交互
1.3.1人機交互簡介
1.3.2人機交互模塊的發展
1.3.3自然語言理解
1.3.4對話管理
1.3.5自然語言生成
1.4機器人形態
1.4.1聊天機器人
1.4.2任務型機器人
1.4.3面向FAQ的問答機器人
1.4.4面向KB的問答機器人
1.5本章小結
第2章人機對話前置技術
2.1深度學習框架
2.1.1 Theano
2.1. 2 TensorFlow
2.1.3 Keras
2.1.4 PyTorch
2.2搭建NLP開發環境
2.2.1下載和安裝Anaconda
2.2.2 conda的使用
2.2.3中文分詞工具——Jieba
2.2.4 PyTorch的下載與安裝
2.2.5 Jupyter Notebook遠程訪問
2.3 TorchText的安裝與介紹
2.4本章小結
第3章中文分詞技術
3.1分詞的概念和分類
3.2規則分詞
3.2.1正向最大匹配
3.2.2逆向最大匹配
3.2.3雙向最大匹配
3.3統計分詞
3.4混合分詞
3.5 Jieba分詞
3.6準確率評測
3.6.1混淆矩陣
3.6.2中文分詞中的P、R、F1計算
3.7本章小結
第4章數據預處理
4.1數據集介紹
4.2數據預處理
4.3 TorchText預處理
4.3.1 torchtext.data
4.3.2 torchtext.datasets
4.3.3構建詞表
4.3.4構建迭代器
4.4本章小結
第5章詞向量實戰
5.1詞向量的由來
5.1.1 one-hot模型
5.1.2神經網絡詞向量模型
5.2 word2vec
5.2 .1初探word2vec
5.2.2深入CBOW模型
5.2.3 Skip-gram模型介紹
5.2.4 word2vec模型本質
5.3 glove
5.3.1初探glove
5.3.2 glove模型原理
5.4 word2vec實戰
5.4.1預處理模塊
5.4.2模型框架
5.4.3模型訓練
5.4.4模型評估
5.5 glove實戰
5.5.1預處理模塊
5.5.2模型框架
5.5.3模型訓練
5.5.4模型評估
5.6本章小結
第6章序列標註與中文NER實戰
6.1序列標註任務
6.1.1任務定義及標籤體系
6.1.2任務特點及對比
6.1.3任務應用場景
6.2序列標註的技術方案
6.2.1隱馬爾可夫模型
6.2.2條件隨機場
6.2.3循環神經網絡
6.2.4 Bert
6.3序列標註實戰
6.3.1中文NER數據集
6.3.2數據預處理
6.3.3模型訓練框架
6.3.4模型評估
6.4 BiLSTM
6.4.1參數介紹
6.4.2 BiLSTM模型框架
6.4.3模型效果評估
6.5 BiLSTM-CRF
6.5.1參數介紹
6.5.2 BiLSTM-CRF模型框架
6.5.3模型評價
6.6本章小結
第7章文本分類技術
7.1 TFIDF與朴素貝葉斯
7.1.1 TFIDF
7.1.2樸素貝葉斯
7.1.3實戰案例之新聞分類
7.2 TextCNN
7.2.1 TextCNN網絡結構解析
7.2.2實戰案例之新聞分類
7.3 FastText
7.3.1模型架構
7.3.2層次softmax
7.3.3 n-gram子詞特徵
7.3.4安裝與實例解析
7.4後台運行
7.5本章小結
第8章循環神經網絡
8.1 RNN
8.1.1序列數據
8.1.2神經網絡需要記憶
8.1.3 RNN基本概念
8.1.4 RNN的輸入輸出類型
8.1.5雙向循環神經網絡
8.1.6深層循環神經網絡
8.1 .7 RNN的問題
8.1.8 RNN PyTorch實現
8.2 LSTM
8.2.1 LSTM網絡結構解析
8.2.2 LSTM PyTorch實現
8.3 GRU
8.3.1 GRU網絡結構解析
8.3.2 GRU PyTorch實現
8.4 TextRNN
8.4.1基本概念
8.4.2實戰案例之新聞分類
8.5 TextRCNN
8.5.1基本概念
8.5.2實戰案例之新聞分類
8.6實戰案例之詩歌生成
8.6.1數據預處理
8.6.2模型結構
8.6.3模型訓練
8.6.4詩歌生成
8.7本章小結
第9章語言模型與對話生成
9.1自然語言生成介紹
9.2序列生成模型
9.2.1 seq2seq的基本框架
9.2.2 Encoder-Decoder框架的缺點
9.3經典的seq2seq框架
9.3.1基於RNN的seq2seq
9.3.2基於CNN的seq2seq
9.4 Attention機制
9.4.1序列模型RNN
9.4.2 Attention機制的原理
9.4.3 Self-Attention模型
9.4.4 Transfomer模型介紹
9.5 Bert——自然語言處理的新範式
9.5 .1 Bert結構
9.5.2預訓練任務
9.6聊天機器人實戰
……
第10章知識圖譜問答
第11章自然語言推理
第12章實體語義理解