| 書[0名0]: | PySpark實戰指南:利用Python和Spark構建數據密集型應用並規模化部署|6877019 |
| 圖書定價: | 49元 |
| 圖書作者: | (美)托馬茲·卓巴斯(Tomasz Drabas);(美)丹尼·李(Denny Lee) |
| 齣版社: | 機械工業齣版社 |
| 齣版日期: | 2017/11/1 0:00:00 |
| ISBN號: | 9787111582380 |
| 開本: | 16開 |
| 頁數: | 0 |
| 版次: | 1-1 |
| 作者簡介 |
| 托馬茲·卓巴斯(Tomasz Drabas)工作於微軟,是一[0名0]數據科[0學0]傢,現居住在西雅圖地區。他擁有[0超0]過13年的數據分析和數據科[0學0]經驗:在歐洲、澳[0大0]利亞和北美洲三[0大0]洲期間,工作[0領0]域遍及先進技術、航空、電信、金融和谘詢。在澳[0大0]利亞期間,托馬茲一直緻力於運籌[0學0]博士[0學0]位,重點是航空業中的選擇建模和收入管理應用。 在微軟,托馬茲每天都和[0大0]數據打交道,解決機器[0學0]習問題,如異常檢測、流失預測和使用Spark的模式識彆。 托馬茲還撰寫瞭《Practical Data Analysis Cookbook》,該書由Packt Publishing於2016年齣版。 我要感謝我的傢人Rachel、Skye 和Albert,你們是我生命中的摯愛,我很珍惜與你們度過的每一天!謝謝你們永遠站在我身邊,鼓勵我一步步接近我的職業目標。另外,感謝所有的親人們。 多年來,還有很多人影響瞭我,我得再寫一本書來感謝他們。你們[0知0]道,我從心底謝謝你們! 不過,如果不是Czesia Wieruszewska,我不[0會0]得到博士[0學0]位。還有Krzys Krzysztoszek,你一直相信我!謝謝! 丹尼·李(Denny Lee)是微軟Azure DocumentDB團隊的[0首0]席項目經理,該團隊緻力於為微軟發展高效性、重量級的托管文檔存儲服務。他是一[0名0]喜歡實踐的分布式係統和數據科[0學0]工程師,擁有[0超0]過18年的互聯網級彆基礎架構、數據平颱和預測分析係統的開發經驗,這些經驗可用於內部部署和雲環境。 他在組建新團隊以及促進轉型、改革方麵擁有豐富的經驗。在加入Azure DocumentDB團隊之前,丹尼曾擔任Databricks的技術傳播專員,他從Apache Spark 0.5時就一直在使用Apache Spark。他還是Concur數據科[0學0]工程的高級總監,曾就職於構建瞭微軟Windows和Azure服務(目前稱為HDInsight)的Hadoop的孵化團隊。丹尼還擁有俄勒岡州健康和科[0學0][0大0][0學0]的生物醫[0學0]信息碩士[0學0]位,並在過去15年中為企業醫療保健客戶構建和實施瞭強[0大0]的數據解決方案。 我要感謝我的好妻子Hua-Ping,還有我齣色的女兒Isabella和S [a0m0a0] ntha。是你們讓我保持清醒,幫我實現瞭夢寐以求的願望! |
| 目錄 |
譯者序 序 前言 關於作者 [0第0]1章 瞭解Spark 1 1.1 什麼是Apache Spark 1 1.2 Spark作業和API 2 1.2.1 執行過程 2 1.2.2 彈性分布式數據集 3 1.2.3 DataFrame 4 1.2.4 Dataset 5 1.2.5 Catalyst[0優0]化器 5 1.2.6 鎢絲計劃 5 1.3 Spark 2.0的架構 6 1.3.1 統一Dataset和DataFrame 7 1.3.2 SparkSession介紹 8 1.3.3 Tungsten Phase 2 8 1.3.4 結構化流 10 1.3.5 連續應用 10 1.4 小結 11 [0第0]2章 彈性分布式數據集 12 2.1 RDD的內部運行方式 12 2.2 創建RDD 13 2.2.1 Schema 14 2.2.2 從文件讀取 14 2.2.3 Lambda錶達式 15 2.3 全局作用域和局部作用域 16 2.4 轉換 17 2.4.1 .map(...)轉換 17 2.4.2 .filter(...)轉換 18 2.4.3 .flatMap(...)轉換 18 2.4.4 .distinct(...)轉換 18 2.4.5 .sample(...)轉換 19 2.4.6 .leftOuterJoin(...)轉換 19 2.4.7 .repartition(...)轉換 20 2.5 操作 20 2.5.1 .take(...)方[0法0] 21 2.5.2 .collect(...)方[0法0] 21 2.5.3 .reduce(...)方[0法0] 21 2.5.4 .count(...)方[0法0] 22 2.5.5 .saveAsTextFile(...)方[0法0] 22 2.5.6 .foreach(...)方[0法0] 23 2.6 小結 23 [0第0]3章 DataFrame 24 3.1 Python到RDD之間的通信 24 3.2 Catalyst[0優0]化器刷新 25 3.3 利用DataFrame加速PySpark 27 3.4 創建DataFrame 28 3.4.1 生成自己的JSON數據 29 3.4.2 創建一個DataFrame 29 3.4.3 創建一個臨時錶 30 3.5 簡單的DataFrame查詢 31 3.5.1 DataFrame API查詢 32 3.5.2 SQL查詢 32 3.6 RDD的交互操作 33 3.6.1 使用反射來推斷模式 33 3.6.2 編程指定模式 34 3.7 利用DataFrame API查詢 35 3.7.1 行數 35 3.7.2 運行篩選語句 35 3.8 利用SQL查詢 36 3.8.1 行數 36 3.8.2 利用where子句運行篩選語句 36 3.9 DataFrame場景——實時飛行性能 38 3.9.1 準備源數據集 38 3.9.2 連接飛行性能和機場 39 3.9.3 可視化飛行性能數據 40 3.10 Spark數據集(Dataset)API 41 3.11 小結 42 [0第0]4章 準備數據建模 43 4.1 檢查重復數據、未觀測數據和異常數據(離群值) 43 4.1.1 重復數據 43 4.1.2 未觀測數據 46 4.1.3 離群值 50 4.2 熟悉你的數據 51 4.2.1 描述性統計 52 4.2.2 相關性 54 4.3 可視化 55 4.3.1 直方圖 55 4.3.2 特徵之間的交互 58 4.4 小結 60 [0第0]5章 MLlib介紹 61 5.1 包概述 61 5.2 加載和轉換數據 62 5.3 瞭解你的數據 65 5.3.1 描述性統計 66 5.3.2 相關性 67 5.3.3 統計測試 69 5.4 創建終數據集 70 5.4.1 創建LabeledPoint形式的RDD 70 5.4.2 分隔培訓和測試數據 71 5.5 預測嬰兒生存機[0會0] 71 5.5.1 MLlib中的邏輯迴歸 71 5.5.2 隻選擇可預測的特徵 72 5.5.3 MLlib中的隨機森林 73 5.6 小結 74 [0第0]6章 ML包介紹 75 6.1 包的概述 75 6.1.1 轉換器 75 6.1.2 [0評0]估器 78 6.1.3 管道 80 6.2 使用ML預測嬰兒生存幾率 80 6.2.1 加載數據 80 6.2.2 創建轉換器 81 6.2.3 創建一個[0評0]估器 82 6.2.4 創建一個管道 82 6.2.5 擬閤模型 83 6.2.6 [0評0]估模型的性能 84 6.2.7 保存模型 84 6.3 [0超0]參調[0優0] 85 6.3.1 網格搜索[0法0] 85 6.3.2 Train-validation 劃分 88 6.4 使用PySpark ML的其他功能 89 6.4.1 特徵提取 89 6.4.2 分類 93 6.4.3 聚類 95 6.4.4 迴歸 98 6.5 小結 99 [0第0]7章 GraphFrames 100 7.1 GraphFrames介紹 102 7.2 安裝GraphFrames 102 7.2.1 創建庫 103 7.3 準備你的航班數據集 105 7.4 構建圖形 107 7.5 執行簡單查詢 108 7.5.1 確定機場和航班的數量 108 7.5.2 確定這個數據集中的長延誤時間 108 7.5.3 確定延誤和準點/早到航班的數量對比 109 7.5.4 哪一班從西雅圖齣發的航班有可能齣現重[0大0]延誤 109 7.5.5 西雅圖齣發到哪個州的航班有可能齣現重[0大0]延誤 110 7.6 理解節點的度 110 7.7 確定[0大0]的中轉機場 112 7.8 理解Motif 113 7.9 使用PageRank確定機場排[0名0] 114 7.10 確定受歡迎的直飛航班 115 7.11 使用廣度[0優0]先搜索 116 7.12 使用D3將航班可視化 118 7.13 小結 119 [0第0]8章 TensorFrames 120 8.1 深度[0學0]習是什麼 120 8.1.1 神經網絡和深度[0學0]習的必要性 123 8.1.2 特徵工程是什麼 125 8.1.3 橋接數據和算[0法0] 125 8.2 TensorFlow是什麼 127 8.2.1 安裝PIP 129 8.2.2 安裝TensorFlow 129 8.2.3 使用常量進行矩陣乘[0法0] 130 8.2.4 使用placeholder進行矩陣乘[0法0] 131 8.2.5 討論 132 8.3 TensorFrames介紹 133 8.4 TensorFrames快速入門 134 8.4.1 配置和設置 134 8.4.2 使用TensorFlow嚮已有列添加常量 136 8.4.3 Blockwise reducing操作示例 137 8.5 小結 139 [0第0]9章 使用Blaze實現混閤持久化 141 9.1 安裝Blaze 141 9.2 混閤持久化 142 9.3 抽象數據 143 9.3.1 使用NumPy 數組 143 9.3.2 使用pandas的DataFrame 145 9.3.3 使用文件 145 9.3.4 使用數據庫 147 9.4 數據操作 149 9.4.1 訪問列 150 9.4.2 符號轉換 150 9.4.3 列的操作 151 9.4.4 降階數據 152 9.4.5 連接 154 9.5 小結 156 [0第0]10章 結構化流 157 10.1 什麼是Spark Streaming 157 10.2 為什麼需要Spark Streaming 159 10.3 Spark Streaming應用程序數據流是什麼 160 10.4 使用DStream簡化Streaming應用程序 161 10.5 全局聚閤快速入門 165 10.6 結構化流介紹 168 10.7 小結 172 [0第0]11章 打包Spark應用程序 173 11.1 spark-submit命令 173 11.2 以編程方式部署應用程序 176 11.2.1 配置你的SparkSession 176 11.2.2 創建SparkSession 177 11.2.3 模塊化代碼 177 11.2.4 提交作業 180 11.2.5 監控執行 182 11.3 Databricks作業 184 11.4 小結 186 |
市麵上的技術書籍種類繁多,但真正能夠寫齣深度和廣度的卻不多。我對《PySpark實戰指南》的期待,在於它能否真正做到“指南”二字,也就是能夠帶領讀者從入門到精通,一步一步地掌握PySpark的各項技術。我希望書中能夠涵蓋PySpark的方方麵麵,從基礎的數據結構和API,到高級的函數式編程範式,再到Spark SQL、Spark Streaming、MLlib等核心組件的應用。更重要的是,我希望書中能夠提供一些“硬核”的實戰案例,展示如何利用PySpark解決真實的業務問題,例如如何處理海量的用戶行為數據,如何構建個性化推薦係統,或者如何進行大規模的A/B測試等。我希望通過這本書,能夠真正提升我在大數據處理和分析方麵的實戰能力。
評分坦白說,我之前嘗試過學習PySpark,但過程中遇到瞭不少睏難。可能是因為找到的資料碎片化,或者講解不夠深入,導緻我對一些核心概念理解得不夠透徹,尤其是在理解Spark的分布式計算原理和內存管理方麵。當我看到這本《PySpark實戰指南》時,我非常期待它能夠填補我在這方麵的知識空白。我希望這本書能夠從Spark的架構原理講起,深入淺齣地解釋其背後的分布式計算模型,以及PySpark是如何與之協同工作的。同時,我也期望書中能夠詳細講解Spark的各種優化技巧,比如如何閤理地進行數據分區、如何選擇閤適的Shuffle策略,以及如何利用緩存來提升性能。我相信,隻有真正理解瞭Spark的底層機製,纔能更好地運用PySpark來解決實際問題,構建齣性能卓越的應用。
評分這本書的封麵設計讓我印象深刻,那種簡潔又不失專業感的風格,很容易吸引到對技術書籍有追求的讀者。我一直對利用Python處理大規模數據充滿興趣,但苦於找不到一本既能係統介紹PySpark核心概念,又能提供貼近實際應用場景案例的教材。市麵上很多書要麼過於理論化,要麼案例陳舊,無法跟上技術發展的步伐。當我看到這本書的標題時,我立刻被它“實戰指南”和“數據密集型應用”這些關鍵詞吸引瞭。我期待這本書能帶領我一步步掌握PySpark,從基礎知識的學習到復雜問題的解決,最終能夠獨立構建齣高效的數據處理和分析應用。尤其是在大數據時代,數據的重要性不言而喻,而PySpark作為Spark的Python API,更是成為瞭許多數據工程師和數據科學傢必備的技能。我希望這本書能成為我學習PySpark的得力助手,讓我能夠更好地應對工作中遇到的挑戰,也能為我的職業發展添磚加瓦。
評分我一直在尋找一本能夠幫助我提升在大數據領域競爭力的書籍,而《PySpark實戰指南》的書名,尤其是“構建數據密集型應用”這一部分,深深地吸引瞭我。我理解“數據密集型應用”不僅僅是簡單的數據處理,更包含瞭對數據的高效存儲、快速訪問、復雜分析以及智能決策的支持。我希望這本書能夠幫助我理解,如何利用PySpark將這些環節有機地結閤起來,構建齣真正具有業務價值的應用。我期待書中能夠深入探討性能優化、容錯處理、以及與其他大數據組件(如Hadoop、Kafka等)的集成。我希望通過學習這本書,能夠讓我不僅能夠編寫PySpark代碼,更能理解其背後的設計理念,從而能夠設計和開發齣更具擴展性、魯棒性和高效率的數據密集型應用。
評分我一直覺得,學習一門新技術,最重要的是能將其融會貫通,並運用到實際工作中去。這本《PySpark實戰指南》的書名,恰恰點齣瞭我最看重的一點——“實戰”。我希望這本書不僅僅是停留在理論概念的講解,而是能夠通過大量的代碼示例和案例分析,讓我切實地感受到PySpark的強大之處。我尤其關心書中是否會涉及一些當下熱門的數據處理場景,比如實時流處理、機器學習模型的訓練和部署,以及數據倉庫的構建等。我希望通過學習這本書,能夠掌握如何利用PySpark高效地進行數據清洗、轉換、分析和可視化,並最終能夠基於這些處理結果,構建齣具有實際業務價值的數據密集型應用。我期待書中能夠提供一些行業內最佳實踐的指導,讓我少走彎路,更快地掌握PySpark的核心技術。
本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度,google,bing,sogou 等
© 2025 book.coffeedeals.club All Rights Reserved. 靜流書站 版權所有