精通 Scrapy 網絡爬蟲 精通Scrapy网络爬虫
劉碩
- 出版商: 清華大學
- 出版日期: 2017-09-30
- 定價: $354
- 售價: 8.5 折 $301
- 語言: 簡體中文
- 頁數: 224
- 裝訂: 平裝
- ISBN: 7302484937
- ISBN-13: 9787302484936
-
相關分類:
Python、Web-crawler 網路爬蟲
-
相關翻譯:
比 Selenium 還強大的網路爬蟲:Scrapy 一本就精通 (繁中版)
已絕版
買這商品的人也買了...
-
$780$616 -
$301Selenium 2自動化測試實戰—基於 Python 語言
-
$580$458 -
$890$694 -
$293Python 網絡爬蟲實戰
-
$403Tensorflow:實戰Google深度學習框架
-
$352精通 Python 網絡爬蟲:核心技術、框架與項目實戰
-
$450$356 -
$403Python 爬蟲開發與項目實戰
-
$490$245 -
$450$356 -
$403深度學習與計算機視覺 : 算法原理、框架應用與代碼實現 (Deep Learning & Computer Vision:Algorithms and Examples)
-
$450$383 -
$500$390 -
$450$356 -
$301從零開始學Python網絡爬蟲
-
$474$450 -
$294$279 -
$690$621 -
$301精通 Python 爬蟲框架 Scrapy (Learning Scrapy)
-
$690$538 -
$580$493 -
$450$351 -
$580$458 -
$780$616
相關主題
商品描述
本書深入系統地介紹了Python流行框架Scrapy的相關技術及使用技巧。全書共14章,從邏輯上可分為基礎篇和高級篇兩部分,基礎篇重點介紹Scrapy的核心元素,如spider、selector、item、link等;高級篇講解爬蟲的高級話題,如登錄認證、文件下載、執行JavaScript、動態網頁爬取、使用HTTP代理、分佈式爬蟲的編寫等,並配合項目案例講解,包括供練習使用的網站,以及知乎、豆瓣、360爬蟲案例等。 本書案例豐富,註重實踐,代碼註釋詳盡,適合有一定Python語言基礎,想學習編寫復雜網絡爬蟲的讀者使用。
海報:
作者簡介
劉碩
碩士,曾就職於知名外企,從事一線開發工作10年,目前主要從事Python開發與教學工作,在慕課網開設有多門Python課程,深受學員歡迎。
目錄大綱
第1章初識Scrapy 1
1.1網絡爬蟲是什麼1
1.2 Scrapy簡介及安裝2
1.3編寫第一個Scrapy爬蟲3
1.3.1項目需求4
1.3.2創建項目4
1.3.3分析頁面5
1.3.4實現Spider 6
1.3.5運行爬蟲8
1.4本章小結11
第2章編寫Spider 12
2.1 Scrapy框架結構及工作原理12
2.2 Request和Response對象14
2.2.1 Request對象15
2.2.2 Response對象16
2.3 Spider開發流程18
2.3. 1繼承scrapy.Spider 19
2.3.2為Spider命名20
2.3.3設定起始爬取點20
2.3.4實現頁面解析函數22
2.4本章小結22
第3章使用Selector提取數據23
3.1 Selector對象23
3.1. 1創建對象24
3.1.2選中數據25
3.1.3提取數據26
3.2 Response內置Selector 28
3.3 XPath 29
3.3.1基礎語法30
3.3.2常用函數35
3.4 CSS選擇器36
3.5本章小結40
第4章使用Item封裝數據41
4.1 Item和Field 42
4.2拓展Item子類44
4.3 Field元數據44
4.4本章小結47
第5章使用Item Pipeline處理數據48
5.1 Item Pipeline 48
5.1.1實現Item Pipeline 49
5.1.2啟用Item Pipeline 50
5.2更多例子51
5.2.1過濾重複數據51
5.2.2將數據存入MongoDB 54
5.3本章小結57
第6章使用LinkExtractor提取鏈接58
6.1使用LinkExtractor 59
6.2描述提取規則60
6.3本章小結65
第7章使用Exporter導出數據66
7.1指定如何導出數據67
7.1.1命令行參數67
7.1.2配置文件69
7.2添加導出數據格式70
7.2.1源碼參考70
7.2.2實現Exporter 72
7.3本章小結74
第8章項目練習75
8.1項目需求77
8.2頁面分析77
8.3編碼實現83
8.4本章小結88
第9章下載文件和圖片89
9.1 FilesPipeline和ImagesPipeline 89
9.1.1 FilesPipeline使用說明90
9.1.2 ImagesPipeline使用說明91
9.2項目實戰:爬取matplotlib 例子源碼文件92
9.2.1項目需求92
9.2.2頁面分析94
9.2.3編碼實現96
9.3項目實戰:下載360圖片103
9.3.1項目需求104
9.3.2頁面分析104
9.3. 3編碼實現107
9.4本章小結109
第10章模擬登錄110
10.1登錄實質110
10.2 Scrapy模擬登錄114
10.2.1使用FormRequest 114
10.2.2實現登錄Spider 117
10.3識別驗證碼119
10.3.1 OCR識別119
10.3.2網絡平台識別123
10.3.3人工識別127
10.4 Cookie登錄128
10.4.1獲取瀏覽器Cookie 128
10.4.2 CookiesMiddleware 源碼分析129
10.4.3實現BrowserCookies- Middleware 132
10.4.4爬取知乎個人信息133
10.5本章小結135
第11章爬取動態頁面136
11.1 Splash渲染引擎140
11.1.1 render.html端點141
11.1.2 execute端點142
11.2在Scrapy中使用Splash 145
11.3項目實戰:爬取toscrape 中的名人名言146
11.3.1項目需求146
11.3.2頁面分析146
11.3 .3編碼實現147
11.4項目實戰:爬取京東商城中的書籍信息149
11.4.1項目需求149
11.4.2頁面分析149
11.4.3編碼實現152
11.5本章小結154
第12章存入數據庫155
12.1 SQLite 156
12.2 MySQL 159
12.3 MongoDB 165
12.4 Redis 169
12.5本章小結173
第13章使用HTTP代理174
13.1 htt pProxyMiddleware 175
13.1.1使用簡介175
13.1.2源碼分析177
13.2使用多個代理179
13.3獲取免費代理180
13.4實現隨機代理184
13.5項目實戰:爬取豆瓣電影信息187
13.5.1項目需求188
13.5.2頁面分析189
13.5.3編碼實現194
13.6本章小結198
第14章分佈式爬取199
14.1 Redis的使用200
14.1.1安裝Redis 200
14.1.2 Redis基本命令201
14.2 scrapy-redis源碼分析206
14.2.1分配爬取任務部分207
14.2.2匯總爬取數據部分214
14.3使用scrapy-redis進行分佈式爬取217
14.3.1搭建環境217
14.3.2項目實戰218
14.4本章小結224