| 書名: | Python爬蟲開發與項目實戰|5894193 |
| 圖書定價: | 79元 |
| 圖書作者: | 範傳輝 |
| 齣版社: | 機械工業齣版社 |
| 齣版日期: | 2017/6/1 0:00:00 |
| ISBN號: | 9787111563877 |
| 開本: | 16開 |
| 頁數: | 0 |
| 版次: | 1-1 |
| 作者簡介 |
| 範傳輝,資深網蟲,Python開發者,參與開發瞭多項網絡應用,在實際開發中積纍瞭豐富的實戰經驗,並善於總結,貢獻瞭多篇技術文章廣受好評。研究興趣是網絡安全、爬蟲技術、數據分析、驅動開發等技術。 "}) |
| 內容簡介 |
| 隨著大數據時代到來,網絡信息量也變得更多更大,基於傳統搜索引擎的局限性,網絡爬蟲應運而生,本書從基本的爬蟲原理開始講解,通過介紹Pthyon編程語言和Web前端基礎知識引領讀者入門,之後介紹動態爬蟲原理以及Scrapy爬蟲框架,最後介紹大規模數據下分布式爬蟲的設計以及PySpider爬蟲框架等。 主要特點: l 由淺入深,從Python和Web前端基礎開始講起,逐步加深難度,層層遞進。 l 內容詳實,從靜態網站到動態網站,從單機爬蟲到分布式爬蟲,既包含基礎知識點,又講解瞭關鍵問題和難點分析,方便讀者完成進階。 l 實用性強,本書共有9個爬蟲項目,以係統的實戰項目為驅動,由淺及深地講解爬蟲開發中所需的知識和技能。 難點詳析,對js加密的分析、反爬蟲措施的突破、去重方案的設計、分布式爬蟲的開發進行瞭細緻的講解。 |
| 目錄 |
前言 基礎篇 第1章 迴顧Python編程2 1.1 安裝Python2 1.1.1 Windows上安裝Python2 1.1.2 Ubuntu上的Python3 1.2 搭建開發環境4 1.2.1 Eclipse+PyDev4 1.2.2 PyCharm10 1.3 IO編程11 1.3.1 文件讀寫11 1.3.2 操作文件和目錄14 1.3.3 序列化操作15 1.4 進程和綫程16 1.4.1 多進程16 1.4.2 多綫程22 1.4.3 協程25 1.4.4 分布式進程27 1.5 網絡編程32 1.5.1 TCP編程33 1.5.2 UDP編程35 1.6 小結36 第2章 Web前端基礎37 2.1 W3C標準37 2.1.1 HTML37 2.1.2 CSS47 2.1.3 51 2.1.4 XPath56 2.1.5 JSON61 2.2 HTTP標準61 2.2.1 HTTP請求過程62 2.2.2 HTTP狀態碼含義62 2.2.3 HTTP頭部信息63 2.2.4 Cookie狀態管理66 2.2.5 HTTP請求方式66 2.3 小結68 第3章 初識網絡爬蟲69 3.1 網絡爬蟲概述69 3.1.1 網絡爬蟲及其應用69 3.1.2 網絡爬蟲結構71 3.2 HTTP請求的Python實現72 3.2.1 urllib2/urllib實現72 3.2.2 httplib/urllib實現76 3.2.3 更人性化的Requests77 3.3 小結82 第4章 HTML解析大法83 4.1 初識Firebug83 4.1.1 安裝Firebug84 4.1.2 強大的功能84 4.2 正則錶達式95 4.2.1 基本語法與使用96 4.2.2 Python與正則102 4.3 強大的BeautifulSoup108 4.3.1 安裝BeautifulSoup108 4.3.2 BeautifulSoup的使用109 4.3.3 lxml的XPath解析124 4.4 小結126 第5章 數據存儲(無數據庫版)127 5.1 HTML正文抽取127 5.1.1 存儲為JSON127 5.1.2 存儲為CSV132 5.2 多媒體文件抽取136 5.3 Email提醒137 5.4 小結138 第6章 實戰項目:基礎爬蟲139 6.1 基礎爬蟲架構及運行流程140 6.2 URL管理器141 6.3 HTML下載器142 6.4 HTML解析器143 6.5 數據存儲器145 6.6 爬蟲調度器146 6.7 小結147 第7章 實戰項目:簡單分布式爬蟲148 7.1 簡單分布式爬蟲結構148 7.2 控製節點149 7.2.1 URL管理器149 7.2.2 數據存儲器151 7.2.3 控製調度器153 7.3 爬蟲節點155 7.3.1 HTML下載器155 7.3.2 HTML解析器156 7.3.3 爬蟲調度器157 7.4 小結159 中級篇 第8章 數據存儲(數據庫版)162 8.1 SQLite162 8.1.1 安裝SQLite162 8.1.2 SQL語法163 8.1.3 SQLite增刪改查168 8.1.4 SQLite事務170 8.1.5 Python操作SQLite171 8.2 MySQL174 8.2.1 安裝MySQL174 8.2.2 MySQL基礎177 8.2.3 Python操作MySQL181 8.3 更適閤爬蟲的MongoDB183 8.3.1 安裝MongoDB184 8.3.2 MongoDB基礎187 8.3.3 Python操作MongoDB194 8.4 小結196 第9章 動態網站抓取197 9.1 Ajax和動態HTML197 9.2 動態爬蟲1:爬取影評信息198 9.3 PhantomJS207 9.3.1 安裝PhantomJS207 9.3.2 快速入門208 9.3.3 屏幕捕獲211 9.3.4 網絡監控213 9.3.5 頁麵自動化214 9.3.6 常用模塊和方法215 9.4 Selenium218 9.4.1 安裝Selenium219 9.4.2 快速入門220 9.4.3 元素選取221 9.4.4 頁麵操作222 9.4.5 等待225 9.5 動態爬蟲2:爬取去哪網227 9.6 小結230 第10章 Web端協議分析231 10.1 網頁登錄POST分析231 10.1.1 隱藏錶單分析231 10.1.2 加密數據分析234 10.2 驗證碼問題246 10.2.1 IP代理246 10.2.2 Cookie登錄249 10.2.3 傳統驗證碼識彆250 10.2.4 人工打碼251 10.2.5 滑動驗證碼252 10.3 www>m>wap252 10.4 小結254 第11章 終端協議分析255 11.1 PC客戶端抓包分析255 11.1.1 HTTP Analyzer簡介255 11.1.2 蝦米音樂PC端API實戰分析257 11.2 App抓包分析259 11.2.1 Wireshark簡介259 11.2.2 酷我聽書App端API實戰分析266 11.3 API爬蟲:爬取mp3資源信息268 11.4 小結272 第12章 初窺Scrapy爬蟲框架273 12.1 Scrapy爬蟲架構273 12.2 安裝Scrapy275 12.3 創建cnblogs項目276 12.4 創建爬蟲模塊277 12.5 選擇器278 12.5.1 Selector的用法278 12.5.2 HTML解析實現280 12.6 命令行工具282 12.7 定義Item284 12.8 翻頁功能286 12.9 構建Item Pipeline287 12.9.1 定製Item Pipeline287 12.9.2 激活Item Pipeline288 12.10 內置數據存儲288 12.11 內置圖片和文件下載方式289 12.12 啓動爬蟲294 12.13 強化爬蟲297 12.13.1 調試方法297 12.13.2 異常299 12.13.3 控製運行狀態300 12.14 小結301 第13章 深入Scrapy爬蟲框架302 13.1 再看Spider302 13.2 Item Loader308 13.2.1 Item與Item Loader308 13.2.2 輸入與輸齣處理器309 13.2.3 Item Loader Context310 13.2.4 重用和擴展Item Loader311 13.2.5 內置的處理器312 13.3 再看Item Pipeline314 13.4 請求與響應315 13.4.1 Request對象315 13.4.2 Response對象318 13.5 下載器中間件320 13.5.1 激活下載器中間件320 13.5.2 編寫下載器中間件321 13.6 Spider中間件324 13.6.1 激活Spider中間件324 13.6.2 編寫Spider中間件325 13.7 擴展327 13.7.1 配置擴展327 13.7.2 定製擴展328 13.7.3 內置擴展332 13.8 突破反爬蟲332 13.8.1 UserAgent池333 13.8.2 禁用Cookies333 13.8.3 設置下載延時與自動限速333 13.8.4 代理IP池334 13.8.5 Tor代理334 13.8.6 分布式下載器:Crawlera337 13.8.7 Google cache338 13.9 小結339 第14章 實戰項目:Scrapy爬蟲340 14.1 創建知乎爬蟲340 14.2 定義Item342 14.3 創建爬蟲模塊343 14.3.1 登錄知乎343 14.3.2 解析功能345 14.4 Pipeline351 14.5 優化措施352 14.6 部署爬蟲353 14.6.1 Scrapyd354 14.6.2 Scrapyd-client356 14.7 小結357 深入篇 第15章 增量式爬蟲360 15.1 去重方案360 15.2 BloomFilter算法361 15.2.1 BloomFilter原理361 15.2.2 Python實現BloomFilter363 15.3 Scrapy和BloomFilter364 15.4 小結366 第16章 分布式爬蟲與Scrapy367 16.1 Redis基礎367 16.1.1 Redis簡介367 16.1.2 Redis的安裝和配置368 16.1.3 Redis數據類型與操作372 16.2 Python和Redis375 16.2.1 Python操作Redis375 16.2.2 Scrapy集成Redis384 16.3 MongoDB集群385 16.4 小結390 第17章 實戰項目:Scrapy分布式爬蟲391 17.1 創建雲起書院爬蟲391 17.2 定義Item393 17.3 編寫爬蟲模塊394 17.4 Pipeline395 17.5 應對反爬蟲機製397 17.6 去重優化400 17.7 小結401 第18章 人性化PySpider爬蟲框架403 18.1 PySpider與Scrapy403 18.2 安裝PySpider404 18.3 創建豆瓣爬蟲405 18.4 選擇器409 18.4.1 PyQuery的用法409 18.4.2 解析數據411 18.5 Ajax和HTTP請求415 18.5.1 Ajax爬取415 18.5.2 HTTP請求實現417 18.6 PySpider和PhantomJS417 18.6.1 使用PhantomJS418 18.6.2 運行420 18.7 數據存儲420 18.8 PySpider爬蟲架構422 18.9 小結423 |
| 編輯推薦 |
| 零基礎學習爬蟲技術,從Python和Web前端基礎開始講起,由淺入深,包含大量案例,實用性強。 從靜態網站到動態網站,從單機爬蟲到分布式爬蟲,涵蓋Scrapy和PySpider框架的運用、去重方案的設計和分布式爬蟲的搭建等。 這是一本實戰性很強的書,書中共有9個爬蟲項目,以係統的實戰項目為驅動,由淺及深地講解爬蟲開發中所需的知識和技能。從靜態網站到動態網站,從單機爬蟲到分布式爬蟲,既包含基礎知識點,又講解瞭關鍵問題和難點分析,包含從入門到進階的所有知識。讀者認真學習完本書之後不再是個菜鳥,可以自主地開發Python爬蟲項目。 |
我是一名在校的計算機專業學生,之前對網絡爬蟲一直停留在理論層麵,對於如何將其應用於實際項目中感到有些迷茫。偶然的機會,我聽同學推薦瞭這本《Python爬蟲開發與項目實戰》,抱著試試看的心態購買瞭。拿到書後,我被書中詳實的案例深深吸引。從簡單的網頁信息抓取,到復雜的動態頁麵處理,再到數據存儲和分析,每一個項目都講解得細緻入微,並且提供瞭完整的代碼和詳細的步驟解釋。尤其是其中關於數據清洗和反爬蟲策略的部分,讓我學到瞭很多課堂上學不到的實用技巧。我嘗試著跟著書中的項目實踐瞭一遍,感覺自己的編程能力和解決問題的能力都得到瞭顯著提升。這本書的實戰性非常強,對於想要將爬蟲技術應用到實際工作中的開發者來說,絕對是一本不可多得的寶藏。
評分這本書的內容涵蓋瞭從入門到進階的Python爬蟲技術,尤其是在項目實戰方麵,提供瞭多個非常貼近實際需求的案例。我最看重的是書中對於不同類型網站爬取策略的講解,比如對於Ajax加載數據的處理、JavaScript渲染頁麵的爬取,以及如何應對一些常見的反爬機製。這些內容在很多入門書籍中都可能被一帶而過,但這本書卻進行瞭詳細的闡述,並提供瞭相應的代碼實現。此外,書中還涉及瞭分布式爬蟲的原理和實現,以及如何利用Scrapy等框架來構建更高效的爬蟲係統。這些內容對於想要構建大規模、高性能爬蟲應用的開發者來說,具有很高的參考價值。整體而言,這本書的知識體係完整,理論與實踐結閤緊密,是一本非常值得深入研讀的工具書。
評分這本書的排版和印刷質量真的沒得說,紙張厚實,文字清晰,閱讀體驗感極佳。封麵設計也很有趣,用Python的蛇形元素巧妙地融閤瞭爬蟲的概念,讓人一眼就能記住。內容方麵,雖然我還沒深入學習,但粗略翻閱瞭一下目錄和前幾章,感覺作者在入門這塊做得非常紮實。很多理論知識都講解得很透徹,而且配有豐富的插圖和代碼示例,這對於初學者來說簡直是福音。比如,書中對HTTP協議的講解,我之前一直有些模糊的概念,看瞭這部分後纔算真正理解瞭請求和響應的整個過程。而且,作者還貼心地給齣瞭很多學習建議和資源鏈接,讓我在學習的路上不至於迷失方嚮。總的來說,這本書的硬件條件和基礎內容都讓我非常滿意,我已經迫不及待想開始我的爬蟲學習之旅瞭!
評分作為一名多年的Python開發者,我一直在尋找一本能夠係統性梳理爬蟲技術並提供深度實踐指導的書籍。這本書的到來,可以說是恰逢其時。它的理論講解部分雖然基礎,但對於一些容易被忽略的細節,比如網絡請求庫的選擇、異常處理機製、並發編程在爬蟲中的應用等,都進行瞭深入的探討。而其項目實戰部分,更是亮點十足。作者選取瞭幾個具有代錶性的真實場景,如電商數據采集、新聞資訊聚閤、社交媒體信息抓取等,並詳細剖析瞭每個項目背後的技術難點和解決方案。我特彆欣賞書中對“代碼健壯性”的強調,以及如何編寫可維護、可擴展的爬蟲代碼。這本書的深度和廣度,足以滿足我進一步提升爬蟲技術水平的需求,讓我能夠更自信地應對各種復雜的爬蟲挑戰。
評分我是一位對互聯網信息充滿好奇的普通讀者,一直想學習如何利用技術手段來獲取我感興趣的信息。這本書的標題就吸引瞭我,“Python爬蟲開發與項目實戰”,聽起來就很有趣。雖然我不是專業的程序員,但書中的語言通俗易懂,對於一些技術概念的解釋也非常形象生動,讓我這個“小白”也能大緻理解。我最喜歡的是書中提到的一些“小技巧”,比如如何利用正則錶達式來提取特定信息,或者如何模擬用戶行為來繞過一些簡單的驗證。即使我不能完全掌握所有的代碼,但通過閱讀這些內容,我仿佛打開瞭一個全新的世界,看到瞭信息獲取的另一種可能性。這本書讓我覺得,即使是普通人,也可以通過學習一些技術,來更好地理解和利用互聯網。
評分還行
評分包裝很完美
評分隻看瞭目錄和書本情況,怎麼評級
評分還行
評分非常好的書,同事推薦購買的,希望有大的提升。
評分內容不錯,值得學習
評分這本書適閤入門的菜鳥看,講的很基礎也循序漸進,但項目什麼的都是網上可以搜到的,比較常規都沒什麼價值,名字是項目實戰,企業都是爬一類30個網站這樣的,這點都沒有體現,所涉及的項目基本都不是企業所需要的,適閤業餘興趣與個人知識梳理,沒什麼深度,比如在服務器上24小時運行異常自動返迴,驗證碼的分析,去重分析等問題都有歸納與提及,但都講解的不清楚,也不深入,也沒有結閤源碼,買的價格是*塊錢。
評分書不錯 但是 GitHub的源碼 找的讓我頭痛 真的好亂
評分書拿著不錯 感覺挺好
本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度,google,bing,sogou 等
© 2025 book.coffeedeals.club All Rights Reserved. 靜流書站 版權所有