包郵 深度學習之TensorFlow:入門、原理與進階實戰+scikit|7634822

包郵 深度學習之TensorFlow:入門、原理與進階實戰+scikit|7634822 pdf epub mobi txt 電子書 下載 2025

李金洪,黃永昌 著
圖書標籤:
  • 深度學習
  • TensorFlow
  • 機器學習
  • Python
  • scikit-learn
  • 人工智能
  • 算法
  • 實戰
  • 入門
  • 進階
想要找書就要到 靜流書站
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!
店鋪: 互動創新圖書專營店
齣版社: 機械工業齣版社
ISBN:9787
商品編碼:27281222490
齣版時間:2018-03-01

具體描述

 書[0名0]:  深度[0學0]習之TensorFlow:入門、原理與進階實戰+scikit-learn [1機1] 器[0學0]習:常用算[0法0]原理及編程實戰|7634822
 圖書定價:  158元
 圖書作者:  李金洪;黃永昌
 齣版社:   [1機1] 械工業齣版社
 齣版日期:  2018/3/1 0:00:00
 ISBN號:  9787
 開本:  16開
 頁數:  0
 版次:  1-1
 內容簡介
《深度[0學0]習之TensorFlow:入門、原理與進階實戰》
本書針對TensorFlow 1.0以上版本編寫,采用“理論+實踐”的形式編寫,通過[0大0]量的實例(共96個),全麵而深入地講解“深度[0學0]習神經網絡原理”和“Tensorflow使用方[0法0]”兩方麵。書中的實例具有很強的實用,如對圖片分類、製作一個簡單的聊天 [1機1] 器人、進行圖像識彆等。書中的每章都配有一段教[0學0]視頻,視頻和圖書具有一樣的內容和結構,能幫助讀者快速而全麵地瞭解本章的內容。本書還免費提供瞭所有案例的源代碼及數據樣本,這些代碼和樣本不僅方便瞭讀者[0學0]習,而且也能為以後的工作提供便利。
全書共分為3篇:[0第0]1篇“深度[0學0]習與TensorFlow基礎”,包括快速瞭解人工智能與TensorFlow、搭建開發環境、TensorFlow基本開發步驟、TensorFlow編程基礎、一個識彆圖中模糊的數字的案例;[0第0]2篇“深度[0學0]習基礎——神經網絡”介紹瞭神經網絡的基礎模型,包括單個神經元、多層神經網絡、捲積神經網絡、循環神經網絡、自編碼網絡;[0第0]3篇“神經網絡進階”,是對基礎網絡模型的靈活運用與自由組閤,是對前麵[0知0]識的綜閤及拔高,包括深度神經網絡、對抗神經網絡。
本書結構清晰、案例豐富、通俗易懂、實用性強。特彆適閤TensorFlow深度[0學0]習的初[0學0]者和進階讀者作為自[0學0]教程閱讀。另外,本書也適閤社[0會0]培訓[0學0]校作為培訓教材使用,還適閤[0大0]中專院校的相關專業作為教[0學0]參考書。
《scikit-learn [1機1] 器[0學0]習:常用算[0法0]原理及編程實戰》
本書通過通俗易懂的語言、豐富的圖示和生動的實例,撥開瞭籠罩在 [1機1] 器[0學0]習上方復雜的數[0學0]“烏雲”,讓讀者以較低的代價和門檻輕鬆入門 [1機1] 器[0學0]習。
本書共分為11章,介紹瞭在Python環境下[0學0]習scikit-learn [1機1] 器[0學0]習框架的相關[0知0]識,涵蓋的主要內容有 [1機1] 器[0學0]習概述、Python [1機1] 器[0學0]習軟件包、 [1機1] 器[0學0]習理論基礎、k-近鄰算[0法0]、綫性迴歸算[0法0]、邏輯迴歸算[0法0]、決策樹、支持嚮量 [1機1] 、樸素貝葉斯算[0法0]、PCA 算[0法0]和k-均值算[0法0]等。
本書適閤有一定編程基礎的讀者閱讀,尤其適閤想從事 [1機1] 器[0學0]習、人工智能、深度[0學0]習及 [1機1] 器人相關技術的程序員和愛好者閱讀。另外,相關院校和培訓 [1機1] 構也可以將本書作為教材使用。
scikit-learn [1機1] 器[0學0]習
常用算[0法0]原理及編程實戰
齣版發行: [1機1] 械工業齣版社(北京市西城區百萬莊[0大0]街22號郵政編碼:100037)
責任編輯:歐振旭 李華君 責任校對:姚誌娟
印刷:中[0國0]電影齣版社印刷廠 版次:2018年3月[0第0]1版[0第0]1次印刷
開本:186mm×240mm 1/16 印張:13.75
書號:ISBN 978-7-111-59024-8 定價:59.00元
凡購本書,如有缺頁、倒頁、脫頁,由本社發行部調換
客服熱綫:(010)8837942688361066 投稿熱綫:(010)88379604
購書熱綫:(010)683262948837964968995259 讀者信箱:hzit@hzbook.com
版[0[0權0]0]所有·侵[0[0權0]0]必究
封底無防僞標均為盜版
本書[0法0]律顧問:北京[0大0]成律師事務所韓光/鄒曉東
 目錄

《深度[0學0]習之TensorFlow:入門、原理與進階實戰 》
配套[0學0]習資源
前言
[0第0]1篇 深度[0學0]習與TensorFlow基礎
[0第0]1章 快速瞭解人工智能與TensorFlow 2
1.1 什麼是深度[0學0]習 2
1.2 TensorFlow是做什麼的 3
1.3 TensorFlow的特點 4
1.4 其他深度[0學0]習框架特點及介紹 5
1.5 如何通過本書[0學0]好深度[0學0]習 6
1.5.1 深度[0學0]習怎麼[0學0] 6
1.5.2 如何[0學0]習本書 7
[0第0]2章 搭建開發環境 8
2.1 下載及安裝Anaconda開發工具 8
2.2 在Windows平颱下載及安裝TensorFlow 11
2.3 GPU版本的安裝方[0法0] 12
2.3.1 安裝CUDA軟件包 12
2.3.2 安裝cuDNN庫 13
2.3.3 測試顯卡 14
2.4 熟悉Anaconda 3開發工具 15
2.4.1 快速瞭解Spyder 16
2.4.2 快速瞭解Jupyter [0No0]tebook 18
[0第0]3章 TensorFlow基本開發步驟——以邏輯迴歸擬閤二維數據為例 19
3.1 實例1:從一組看似混亂的數據中找齣y≈2x的規律 19
3.1.1 準備數據 20
3.1.2 搭建模型 21
3.1.3 迭代訓練模型 23
3.1.4 使用模型 25
3.2 模型是如何訓練齣來的 25
3.2.1 模型裏的內容及意義 25
3.2.2 模型內部的數據流嚮 26
3.3 瞭解TensorFlow開發的基本步驟 27
3.3.1 定義輸入節點的方[0法0] 27
3.3.2 實例2:通過字典類型定義輸入節點 28
3.3.3 實例3:直接定義輸入節點 28
3.3.4 定義“[0學0]習參數”的變量 29
3.3.5 實例4:通過字典類型定義“[0學0]習參數” 29
3.3.6 定義“運算” 29
3.3.7 [0優0]化函數,[0優0]化目標 30
3.3.8 初始化所有變量 30
3.3.9 迭代更[親斤]參數到[0優0]解 31
3.3.10 測試模型 31
3.3.11 使用模型 31
[0第0]4章 TensorFlow編程基礎 32
4.1 編程模型 32
4.1.1 瞭解模型的運行 [1機1] 製 33
4.1.2 實例5:編寫hello world程序演示session的使用 34
4.1.3 實例6:演示with session的使用 35
4.1.4 實例7:演示注入 [1機1] 製 35
4.1.5 建立session的其他方[0法0] 36
4.1.6 實例8:使用注入 [1機1] 製獲取節點 36
4.1.7 指定GPU運算 37
4.1.8 設置GPU使用資源 37
4.1.9 保存和載入模型的方[0法0]介紹 38
4.1.10 實例9:保存/載入綫性迴歸模型 38
4.1.11 實例10:分析模型內容,演示模型的其他保存方[0法0] 40
4.1.12 檢查點(Checkpoint) 41
4.1.13 實例11:為模型添加保存檢查點 41
4.1.14 實例12:更簡便地保存檢查點 44
4.1.15 模型操作常用函數總結 45
4.1.16 TensorBoard可視化介紹 45
4.1.17 實例13:綫性迴歸的TensorBoard可視化 46
4.2 TensorFlow基礎類型定義及操作函數介紹 48
4.2.1 張量及操作 49
4.2.2 算術運算函數 55
4.2.3 矩陣相關的運算 56
4.2.4 復數操作函數 58
4.2.5 規約計算 59
4.2.6 分割 60
4.2.7 序列比較與索引提取 61
4.2.8 錯誤類 62
4.3 共享變量 62
4.3.1 共享變量用途 62
4.3.2 使用get-variable獲取變量 63
4.3.3 實例14:演示get_variable和Variable的區彆 63
4.3.4 實例15:在特定的作用域下獲取變量 65
4.3.5 實例16:共享變量功能的實現 66
4.3.6 實例17:初始化共享變量的作用域 67
4.3.7 實例18:演示作用域與操作符的受限範圍 68
4.4 實例19:圖的基本操作 70
4.4.1 建立圖 70
4.4.2 獲取張量 71
4.4.3 獲取節點操作 72
4.4.4 獲取元素列錶 73
4.4.5 獲取對象 73
4.4.6 練習題 74
4.5 配置分布式TensorFlow 74
4.5.1 分布式TensorFlow的角色及原理 74
4.5.2 分布部署TensorFlow的具體方[0法0] 75
4.5.3 實例20:使用TensorFlow實現分布式部署訓練 75
4.6 動態圖(Eager) 81
4.7 數據集(tf.data) 82
[0第0]5章 識彆圖中模糊的手寫數字(實例21) 83
5.1 導入圖片數據集 84
5.1.1 MNIST數據集介紹 84
5.1.2 下載並安裝MNIST數據集 85
5.2 分析圖片的特點,定義變量 87
5.3 構建模型 87
5.3.1 定義[0學0]習參數 87
5.3.2 定義輸齣節點 88
5.3.3 定義反嚮傳播的結構 88
5.4 訓練模型並輸齣中間狀態參數 89
5.5 測試模型 90
5.6 保存模型 91
5.7 讀取模型 92
[0第0]2篇 深度[0學0]習基礎——神經網絡
[0第0]6章 單個神經元 96
6.1 神經元的擬閤原理 96
6.1.1 正嚮傳播 98
6.1.2 反嚮傳播 98
6.2 激活函數——加入非綫性因素,解決綫性模型缺陷 99
6.2.1 Sigmoid函數 99
6.2.2 Tanh函數 100
6.2.3 ReLU函數 101
6.2.4 Swish函數 103
6.2.5 激活函數總結 103
6.3 softmax算[0法0]——處理分類問題 103
6.3.1 什麼是softmax 104
6.3.2 softmax原理 104
6.3.3 常用的分類函數 105
6.4 損失函數——用真實值與預測值的距離來指導模型的收斂方嚮 105
6.4.1 損失函數介紹 105
6.4.2 TensorFlow中常見的loss函數 106
6.5 softmax算[0法0]與損失函數的綜閤應用 108
6.5.1 實例22:交叉熵實驗 108
6.5.2 實例23:one_hot實驗 109
6.5.3 實例24:sparse交叉熵的使用 110
6.5.4 實例25:計算loss值 110
6.5.5 練習題 111
6.6 梯度下降——讓模型逼近小偏差 111
6.6.1 梯度下降的作用及分類 111
6.6.2 TensorFlow中的梯度下降函數 112
6.6.3 退化[0學0]習率——在訓練的速度與精度之間找到平衡 113
6.6.4 實例26:退化[0學0]習率的用[0法0]舉例 114
6.7 初始化[0學0]習參數 115
6.8 單個神經元的擴展——Maxout網絡 116
6.8.1 Maxout介紹 116
6.8.2 實例27:用Maxout網絡實現MNIST分類 117
6.9 練習題 118
[0第0]7章 多層神經網絡——解決非綫性問題 119
7.1 綫性問題與非綫性問題 119
7.1.1 實例28:用綫性單分邏輯迴歸分析腫瘤是良性還是惡性的 119
7.1.2 實例29:用綫性邏輯迴歸處理多分類問題 123
7.1.3 認識非綫性問題 129
7.2 使用隱藏層解決非綫性問題 130
7.2.1 實例30:使用帶隱藏層的神經網絡擬閤異或操作 130
7.2.2 非綫性網絡的可視化及其意義 133
7.2.3 練習題 135
7.3 實例31:利用全連接網絡將圖片進行分類 136
7.4 全連接網絡訓練中的[0優0]化技巧 137
7.4.1 實例32:利用異或數據集演示過擬閤問題 138
7.4.2 正則化 143
7.4.3 實例33:通過正則化改善過擬閤情況 144
7.4.4 實例34:通過增[0大0]數據集改善過擬閤 145
7.4.5 練習題 146
7.4.6 dropout——訓練過程中,將部分神經單元暫時丟棄 146
7.4.7 實例35:為異或數據集模型添加dropout 147
7.4.8 實例36:基於退化[0學0]習率dropout技術來擬閤異或數據集 149
7.4.9 全連接網絡的深淺關係 150
7.5 練習題 150
[0第0]8章 捲積神經網絡——解決參數太多問題 151
8.1 全連接網絡的局限性 151
8.2 理解捲積神經網絡 152
8.3 網絡結構 153
8.3.1 網絡結構描述 153
8.3.2 捲積操作 155
8.3.3 池化層 157
8.4 捲積神經網絡的相關函數 158
8.4.1 捲積函數tf.nn.conv2d 158
8.4.2 padding規則介紹 159
8.4.3 實例37:捲積函數的使用 160
8.4.4 實例38:使用捲積提取圖片的輪廓 165
8.4.5 池化函數tf.nn.max_pool(avg_pool) 167
8.4.6 實例39:池化函數的使用 167
8.5 使用捲積神經網絡對圖片分類 170
8.5.1 CIFAR介紹 171
8.5.2 下載CIFAR數據 172
8.5.3 實例40:導入並顯示CIFAR數據集 173
8.5.4 實例41:顯示CIFAR數據集的原始圖片 174
8.5.5 cifar10_input的其他功能 176
8.5.6 在TensorFlow中使用queue 176
8.5.7 實例42:協調器的用[0法0]演示 178
8.5.8 實例43:為session中的隊列加上協調器 179
8.5.9 實例44:建立一個帶有全局平均池化層的捲積神經網絡 180
8.5.10 練習題 183
8.6 反捲積神經網絡 183
8.6.1 反捲積神經網絡的應用場景 184
8.6.2 反捲積原理 184
8.6.3 實例45:演示反捲積的操作 185
8.6.4 反池化原理 188
8.6.5 實例46:演示反池化的操作 189
8.6.6 實例47:演示gradients基本用[0法0] 192
8.6.7 實例48:使用gradients對多個式子求多變量偏導 192
8.6.8 實例49:演示梯度停止的實現 193
8.7 實例50:用反捲積技術復原捲積網絡各層圖像 195
8.8 善用函數封裝庫 198
8.8.1 實例51:使用函數封裝庫重寫CIFAR捲積網絡 198
8.8.2 練習題 201
8.9 深度[0學0]習的模型訓練技巧 201
8.9.1 實例52:[0優0]化捲積核技術的演示 201
8.9.2 實例53:多通道捲積技術的演示 202
8.9.3 批量歸一化 204
8.9.4 實例54:為CIFAR圖片分類模型添加BN 207
8.9.5 練習題 209
[0第0]9章 循環神經網絡——具有記憶功能的網絡 210
9.1 瞭解RNN的工作原理 210
9.1.1 瞭解人的記憶原理 210
9.1.2 RNN網絡的應用[0領0]域 212
9.1.3 正嚮傳播過程 212
9.1.4 隨時間反嚮傳播 213
9.2 簡單RNN 215
9.2.1 實例55:簡單循環神經網絡實現——裸寫一個退位減[0法0]器 215
9.2.2 實例56:使用RNN網絡擬閤迴聲信號序列 220
9.3 循環神經網絡(RNN)的改進 225
9.3.1 LSTM網絡介紹 225
9.3.2 窺視孔連接(Peephole) 228
9.3.3 帶有映射輸齣的STMP 230
9.3.4 基於梯度剪輯的cell 230
9.3.5 GRU網絡介紹 230
9.3.6 Bi-RNN網絡介紹 231
9.3.7 基於神經網絡的時序類分類CTC 232
9.4 TensorFlow實戰RNN 233
9.4.1 TensorFlow中的cell類 233
9.4.2 通過cell類構建RNN 234
9.4.3 實例57:構建單層LSTM網絡對MNIST數據集分類 239
9.4.4 實例58:構建單層GRU網絡對MNIST數據集分類 240
9.4.5 實例59:創建動態單層RNN網絡對MNIST數據集分類 240
9.4.6 實例60:靜態多層LSTM對MNIST數據集分類 241
9.4.7 實例61:靜態多層RNN-LSTM連接GRU對MNIST數據集分類 242
9.4.8 實例62:動態多層RNN對MNIST數據集分類 242
9.4.9 練習題 243
9.4.10 實例63:構建單層動態[0[0雙0]0]嚮RNN對MNIST數據集分類 243
9.4.11 實例64:構建單層靜態[0[0雙0]0]嚮RNN對MNIST數據集分類 244
9.4.12 實例65:構建多層[0[0雙0]0]嚮RNN對MNIST數據集分類 246
9.4.13 實例66:構建動態多層[0[0雙0]0]嚮RNN對MNIST數據集分類 247
9.4.14 初始化RNN 247
9.4.15 [0優0]化RNN 248
9.4.16 實例67:在GRUCell中實現LN 249
9.4.17 CTC網絡的loss——ctc_loss 251
9.4.18 CTCdecoder 254
9.5 實例68:利用BiRNN實現語音識彆 255
9.5.1 語音識彆背景 255
9.5.2 獲取並整理樣本 256
9.5.3 訓練模型 265
9.5.4 練習題 272
9.6 實例69:利用RNN訓練語言模型 273
9.6.1 準備樣本 273
9.6.2 構建模型 275
9.7 語言模型的係統[0學0]習 279
9.7.1 統計語言模型 279
9.7.2 詞嚮量 279
9.7.3 word2vec 281
9.7.4 實例70:用CBOW模型訓練自己的word2vec 283
9.7.5 實例71:使用指定侯選采樣本訓練word2vec 293
9.7.6 練習題 296
9.8 處理Seq2Seq任務 296
9.8.1 Seq2Seq任務介紹 296
9.8.2 Encoder-Decoder框架 297
9.8.3 實例72:使用basic_rnn_seq2seq擬閤麯綫 298
9.8.4 實例73:預測[0當0]天的股票價格 306
9.8.5 基於注意力的Seq2Seq 310
9.8.6 實例74:基於Seq2Seq注意力模型實現中英文 [1機1] 器翻譯 313
9.9 實例75:製作一個簡單的聊天 [1機1] 器人 339
9.9.1 構建項目框架 340
9.9.2 準備聊天樣本 340
9.9.3 預處理樣本 340
9.9.4 訓練樣本 341
9.9.5 測試模型 342
9.10 時間序列的高級接口TFTS 344
[0第0]10章 自編碼網絡——能夠自[0學0]習樣本特徵的網絡 346
10.1 自編碼網絡介紹及應用 346
10.2 簡單的自編碼網絡 347
10.3 自編碼網絡的代碼實現 347
10.3.1 實例76:提取圖片的特徵,並利用特徵還原圖片 347
10.3.2 綫性解碼器 351
10.3.3 實例77:提取圖片的二維特徵,並利用二維特徵還原圖片 351
10.3.4 實例78:實現捲積網絡的自編碼 356
10.3.5 練習題 358
10.4 去噪自編碼 359
10.5 去噪自編碼網絡的代碼實現 359
10.5.1 實例79:使用去噪自編碼網絡提取MNIST特徵 359
10.5.2 練習題 363
10.6 棧式自編碼 364
10.6.1 棧式自編碼介紹 364
10.6.2 棧式自編碼在深度[0學0]習中的意義 365
10.7 深度[0學0]習中自編碼的常用方[0法0] 366
10.7.1 代替和級聯 366
10.7.2 自編碼的應用場景 366
10.8 去噪自編碼與棧式自編碼的綜閤實現 366
10.8.1 實例80:實現去噪自編碼 367
10.8.2 實例81:添加模型存儲支持分布訓練 375
10.8.3 小心分布訓練中的“坑” 376
10.8.4 練習題 377
10.9 變分自編碼 377
10.9.1 什麼是變分自編碼 377
10.9.2 實例82:使用變分自編碼模擬生成MNIST數據 377
10.9.3 練習題 384
10.10 條件變分自編碼 385
10.10.1 什麼是條件變分自編碼 385
10.10.2 實例83:使用標簽指導變分自編碼網絡生成MNIST數據 385
[0第0]3篇 深度[0學0]習進階
[0第0]11章 深度神經網絡 392
11.1 深度神經網絡介紹 392
11.1.1 深度神經網絡起源 392
11.1.2 經典模型的特點介紹 393
11.2 GoogLeNet模型介紹 394
11.2.1 MLP捲積層 394
11.2.2 全局均值池化 395
11.2.3 Inception 原始模型 396
11.2.4 Inception v1模型 396
11.2.5 Inception v2模型 397
11.2.6 Inception v3模型 397
11.2.7 Inception v4模型 399
11.3 殘差網絡(ResNet) 399
11.3.1 殘差網絡結構 399
11.3.2 殘差網絡原理 400
11.4 Inception-ResNet-v2結構 400
11.5 TensorFlow中的圖片分類模型庫——slim 400
11.5.1 獲取models中的slim模塊代碼 401
11.5.2 models中的Slim目錄結構 401
11.5.3 slim中的數據集處理 403
11.5.4 實例84:利用slim讀取TFRecord中的數據 405
11.5.5 在slim中訓練模型 407
11.6 使用slim中的深度網絡模型進行圖像的識彆與檢測 410
11.6.1 實例85:調用Inception_ResNet_v2模型進行圖像識彆 410
11.6.2 實例86:調用VGG模型進行圖像檢測 413
11.7 實物檢測模型庫——Object Detection API 417
11.7.1 準備工作 418
11.7.2 實例87:調用Object Detection API進行實物檢測 421
11.8 實物檢測[0領0]域的相關模型 425
11.8.1 RCNN基於捲積神經網絡特徵的區域方[0法0] 426
11.8.2 SPP-Net:基於空間金字塔池化的[0優0]化RCNN方[0法0] 426
11.8.3 Fast-R-CNN快速的RCNN模型 426
11.8.4 YOLO:能夠一次性預測多個位置和類彆的模型 427
11.8.5 SSD:比YOLO更快更準的模型 428
11.8.6 YOLO2:YOLO的升級版模型 428
11.9 [1機1] 器自己設計的模型(NASNet) 428
[0第0]12章 對抗神經網絡(GAN) 430
12.1 GAN的理論[0知0]識 430
12.1.1 生成式模型的應用 431
12.1.2 GAN的訓練方[0法0] 431
12.2 DCGAN——基於深度捲積的GAN 432
12.3 InfoGAN和ACGAN:指定類彆生成模擬樣本的GAN 432
12.3.1 InfoGAN:帶有隱含信息的GAN 432
12.3.2 AC-GAN:帶有輔助分類信息的GAN 433
12.3.3 實例88:構建InfoGAN生成MNIST模擬數據 434
12.3.4 練習題 440
12.4 AEGAN:基於自編碼器的GAN 441
12.4.1 AEGAN原理及用途介紹 441
12.4.2 實例89:使用AEGAN對MNIST數據集壓縮特徵及重建 442
12.5 WGAN-GP:更容易訓練的GAN 447
12.5.1 WGAN:基於推土 [1機1] 距離原理的GAN 448
12.5.2 WGAN-GP:帶梯度懲罰項的WGAN 449
12.5.3 實例90:構建WGAN-GP生成MNIST數據集 451
12.5.4 練習題 455
12.6 LSGAN(小乘二GAN):具有WGAN 同樣效果的GAN 455
12.6.1 LSGAN介紹 455
12.6.2 實例91:構建LSGAN生成MNIST模擬數據 456
12.7 GAN-cls:具有匹配感[0知0]的判彆器 457
12.7.1 GAN-cls的具體實現 458
12.7.2 實例92:使用GAN-cls技術實現生成標簽匹配的模擬數據 458
12.8 SRGAN——適用於[0超0]分辨率重建的GAN 461
12.8.1 [0超0]分辨率技術 461
12.8.2 實例93:ESPCN實現MNIST數據集的[0超0]分辨率重建 463
12.8.3 實例94:ESPCN實現flowers數據集的[0超0]分辨率重建 466
12.8.4 實例95:使用殘差網絡的ESPCN 472
12.8.5 SRGAN的原理 477
12.8.6 實例96:使用SRGAN實現flowers數據集的[0超0]分辨率修復 477
12.9 GAN網絡的高級接口TFGAN 485
12.10 總結 486
《scikit-learn [1機1] 器[0學0]習:常用算[0法0]原理及編程實戰》
前言
[0第0]1章 [1機1] 器[0學0]習介紹 1
1.1 什麼是 [1機1] 器[0學0]習 1
1.2 [1機1] 器[0學0]習有什麼用 2
1.3 [1機1] 器[0學0]習的分類 3
1.4 [1機1] 器[0學0]習應用開發的典型步驟 4
1.4.1 數據采集和標記 4
1.4.2 數據清洗 5
1.4.3 特徵選擇 5
1.4.4 模型選擇 5
1.4.5 模型訓練和測試 5
1.4.6 模型性能[0評0]估和[0優0]化 5
1.4.7 模型使用 6
1.5 復習題 6
[0第0]2章 Python [1機1] 器[0學0]習軟件包 7
2.1 開發環境搭建 7
2.2 IPython簡介 8
2.2.1 IPython基礎 8
2.2.2 IPython圖形界麵 13
2.3 Numpy簡介 15
2.3.1 Numpy數組 15
2.3.2 Numpy運算 19
2.4 Pandas簡介 32
2.4.1 基本數據結構 32
2.4.2 數據排序 34
2.4.3 數據訪問 34
2.4.4 時間序列 36
2.4.5 數據可視化 36
2.4.6 文件讀寫 38
2.5 Matplotlib簡介 38
2.5.1 圖形樣式 38
2.5.2 圖形對象 40
2.5.3 畫圖操作 46
2.6 scikit-learn簡介 51
2.6.1 scikit-learn示例 51
2.6.2 scikit-learn一般性原理和通用規則 55
2.7 復習題 56
2.8 拓展[0學0]習資源 57
[0第0]3章 [1機1] 器[0學0]習理論基礎 58
3.1 過擬閤和欠擬閤 58
3.2 成本函數 59
3.3 模型準確性 60
3.3.1 模型性能的不同錶述方式 61
3.3.2 交叉驗證數據集 61
3.4 [0學0]習麯綫 62
3.4.1 實例:畫齣[0學0]習麯綫 62
3.4.2 過擬閤和欠擬閤的特徵 65
3.5 算[0法0]模型性能[0優0]化 65
3.6 查準率和召迴率 66
3.7 F1 Score 67
3.8 復習題 67
[0第0]4章 k-近鄰算[0法0] 69
4.1 算[0法0]原理 69
4.1.1 算[0法0][0優0]缺點 69
4.1.2 算[0法0]參數 70
4.1.3 算[0法0]的變種 70
4.2 示例:使用k-近鄰算[0法0]進行分類 70
4.3 示例:使用k-近鄰算[0法0]進行迴歸擬閤 72
4.4 實例:糖尿病預測 74
4.4.1 加載數據 74
4.4.2 模型比較 75
4.4.3 模型訓練及分析 77
4.4.4 特徵選擇及數據可視化 78
4.5 拓展閱讀 80
4.5.1 如何提高k-近鄰算[0法0]的運算效率 80
4.5.2 相關性測試 80
4.6 復習題 81
[0第0]5章 綫性迴歸算[0法0] 83
5.1 算[0法0]原理 83
5.1.1 預測函數 83
5.1.2 成本函數 84
5.1.3 梯度下降算[0法0] 84
5.2 多變量綫性迴歸算[0法0] 86
5.2.1 預測函數 86
5.2.2 成本函數 87
5.2.3 梯度下降算[0法0] 88
5.3 模型[0優0]化 89
5.3.1 多項式與綫性迴歸 89
5.3.2 數據歸一化 89
5.4 示例:使用綫性迴歸算[0法0]擬閤正弦函數 90
5.5 示例:測算房價 92
5.5.1 輸入特徵 92
5.5.2 模型訓練 93
5.5.3 模型[0優0]化 94
5.5.4 [0學0]習麯綫 95
5.6 拓展閱讀 96
5.6.1 梯度下降迭代公式推導 96
5.6.2 隨 [1機1] 梯度下降算[0法0] 96
5.6.3 標準方程 97
5.7 復習題 97
[0第0]6章 邏輯迴歸算[0法0] 98
6.1 算[0法0]原理 98
6.1.1 預測函數 98
6.1.2 判定邊界 99
6.1.3 成本函數 100
6.1.4 梯度下降算[0法0] 102
6.2 多元分類 102
6.3 正則化 103
6.3.1 綫性迴歸模型正則化 103
6.3.2 邏輯迴歸模型正則化 104
6.4 算[0法0]參數 104
6.5 實例:乳腺癌檢測 106
6.5.1 數據采集及特徵提取 106
6.5.2 模型訓練 108
6.5.3 模型[0優0]化 110
6.5.4 [0學0]習麯綫 111
6.6 拓展閱讀 113
6.7 復習題 114
[0第0]7章 決策樹 115
7.1 算[0法0]原理 115
7.1.1 信息增益 116
7.1.2 決策樹的創建 119
7.1.3 剪枝算[0法0] 120
7.2 算[0法0]參數 121
7.3 實例:預測泰坦尼剋號幸存者 122
7.3.1 數據分析 122
7.3.2 模型訓練 123
7.3.3 [0優0]化模型參數 124
7.3.4 模型參數選擇工具包 127
7.4 拓展閱讀 130
7.4.1 熵和條件熵 130
7.4.2 決策樹的構建算[0法0] 130
7.5 集閤算[0法0] 131
7.5.1 自助聚閤算[0法0]Bagging 131
7.5.2 正嚮激勵算[0法0]boosting 131
7.5.3 隨 [1機1] 森林 132
7.5.4 ExtraTrees算[0法0] 133
7.6 復習題 133
[0第0]8章 支持嚮量 [1機1] 134
8.1 算[0法0]原理 134
8.1.1 [0大0]間距分類算[0法0] 134
8.1.2 鬆弛係數 136
8.2 核函數 138
8.2.1 簡單的核函數 138
8.2.2 相似性函數 140
8.2.3 常用的核函數 141
8.2.4 核函數的對比 142
8.3 scikit-learn裏的SVM 144
8.4 實例:乳腺癌檢測 146
8.5 復習題 149
[0第0]9章 樸素貝葉斯算[0法0] 151
9.1 算[0法0]原理 151
9.1.1 貝葉斯定理 151
9.1.2 樸素貝葉斯分類[0法0] 152
9.2 一個簡單的例子 153
9.3 概率分布 154
9.3.1 概率統計的基本概念 154
9.3.2 多項式分布 155
9.3.3 高斯分布 158
9.4 連續值的處理 159
9.5 實例:文檔分類 160
9.5.1 獲取數據集 160
9.5.2 文檔的數[0學0]錶達 161
9.5.3 模型訓練 163
9.5.4 模型[0評0]價 165
9.6 復習題 167
[0第0]10章 PCA算[0法0] 168
10.1 算[0法0]原理 168
10.1.1 數據歸一化和縮放 169
10.1.2 計算協方差矩陣的特徵嚮量 169
10.1.3 數據降維和恢復 170
10.2 PCA 算[0法0]示例 171
10.2.1 使用Numpy模擬PCA計算過程 171
10.2.2 使用sklearn進行PCA降維運算 173
10.2.3 PCA的物理含義 174
10.3 PCA 的數據還原率及應用 175
10.3.1 數據還原率 175
10.3.2 加快監督 [1機1] 器[0學0]習算[0法0]的運算速度 176
10.4 實例:人臉識彆 176
10.4.1 加載數據集 176
10.4.2 一次失敗的嘗試 179
10.4.3 使用PCA來處理數據集 182
10.4.4 終結果 185
10.5 拓展閱讀 189
10.6 復習題 189
[0第0]11章 k-均值算[0法0] 190
11.1 算[0法0]原理 190
11.1.1 k-均值算[0法0]成本函數 191
11.1.2 隨 [1機1] 初始化聚類中心點 191
11.1.3 選擇聚類的個數 192
11.2 scikit-learn裏的k-均值算[0法0] 192
11.3 使用k-均值對文檔進行聚類分析 195
11.3.1 準備數據集 195
11.3.2 加載數據集 196
11.3.3 文本聚類分析 197
11.4 聚類算[0法0]性能[0評0]估 200
11.4.1 Adjust Rand Index 200
11.4.2 齊次性和完整性 201
11.4.3 輪廓係數 203
11.5 復習題 204
後記 205
 編輯推薦
《深度[0學0]習之TensorFlow:入門、原理與進階實戰》
本書通過96個案例,全麵講解瞭深度[0學0]習神經網絡原理和TensorFlow的使用方[0法0]。全書共分為3篇,[0第0]1篇深度[0學0]習與TensorFlow基礎,包括快速瞭解人工智能與TensorFlow、搭建開發環境、TensorFlow基本開發步驟、TensorFlow編程基礎、識彆圖中模糊的手寫數字等內容;[0第0]2篇深度[0學0]習基礎——神經網絡,介紹瞭神經網絡的基礎模型,包括單個神經元、多層神經網絡、捲積神經網絡、循環神經網絡、自編碼網絡等內容;[0第0]3篇深度[0學0]習進階,是對基礎網絡模型的靈活運用與自由組閤,是對前麵[0知0]識的綜閤及拔高,包括深度神經網絡和對抗神經網絡兩章內容。本書特彆適閤TensorFlow深度[0學0]習的初[0學0]者和進階讀者閱讀,也適閤社[0會0]培訓班和各[0大0]院校對深度[0學0]習有興趣的[0學0]生閱讀。

Python數據科學實戰指南:從數據清洗到模型部署 本書是一本麵嚮初學者和進階者的Python數據科學實戰指南,旨在係統性地介紹數據科學的核心概念、工具與技術。我們將從數據獲取、清洗、探索性數據分析(EDA),逐步深入到特徵工程、模型構建、評估以及最終的模型部署。全程貫穿Python及其核心科學計算庫,如NumPy、Pandas、Matplotlib、Seaborn、Scikit-learn等,通過大量真實案例和代碼示例,帶領讀者一步步掌握數據科學項目的全流程。 第一部分:數據處理與探索 數據獲取與預處理: 數據來源多樣化: 學習如何從不同的數據源獲取數據,包括CSV文件、Excel錶格、數據庫(SQLAlchemy)、API接口(如Requests庫)以及網頁抓取(BeautifulSoup、Scrapy)。 數據清洗的關鍵步驟: 詳細講解數據清洗的常用技巧,如處理缺失值(刪除、填充均值/中位數/眾數、插值法)、處理重復值、異常值檢測與處理(箱綫圖、Z-score、IQR)、數據類型轉換(數值型、類彆型、日期型)、字符串處理(正則錶達式、文本清洗)。 數據格式標準化: 掌握如何統一不同來源的數據格式,確保數據的一緻性與可用性。例如,日期格式統一、單位統一等。 探索性數據分析(EDA): 數據概覽與描述性統計: 使用Pandas進行數據概覽,如`.head()`, `.info()`, `.describe()`,理解數據的基本結構、字段類型、缺失比例和分布。計算均值、方差、標準差、分位數等描述性統計量,為後續分析奠定基礎。 可視化探索: 學習利用Matplotlib和Seaborn創建各種圖錶,深入理解數據分布與特徵間關係。 單變量分析: 直方圖(Histogram)、核密度估計圖(KDE Plot)、箱綫圖(Box Plot)用於分析數值型數據的分布和離散程度。計數圖(Count Plot)、餅圖(Pie Chart)用於分析類彆型數據的頻率。 雙變量分析: 散點圖(Scatter Plot)用於探索兩個數值型變量之間的關係。摺綫圖(Line Plot)常用於時間序列數據。條形圖(Bar Plot)用於比較不同類彆的數據。 多變量分析: 熱力圖(Heatmap)用於可視化相關矩陣,揭示變量間的綫性相關性。配對圖(Pair Plot)可以一次性展示多對變量之間的散點圖和單變量分布圖,快速發現潛在關係。 相關性分析: 計算Pearson、Spearman等相關係數,理解變量間的綫性或單調關係強度,為特徵選擇提供依據。 第二部分:特徵工程與模型構建 特徵工程: 特徵選擇: 過濾法(Filter Methods): 基於統計指標(如方差、相關係數、卡方檢驗、互信息)對特徵進行排序和篩選,不依賴具體模型。 包裹法(Wrapper Methods): 將特徵選擇過程作為模型訓練的一部分,通過模型性能來評估特徵子集的好壞,如遞歸特徵消除(RFE)。 嵌入法(Embedded Methods): 特徵選擇過程嵌入在模型訓練過程中,如Lasso迴歸的L1正則化。 特徵提取: 主成分分析(PCA): 降維技術,通過綫性變換將原始高維特徵映射到低維空間,保留大部分原始數據方差。 獨立成分分析(ICA): 分離混閤信號,適用於非高斯分布的數據。 t-SNE、UMAP: 非綫性降維技術,常用於高維數據的可視化。 特徵構建: 多項式特徵: 創建原特徵的組閤項(如x1^2, x1x2),捕捉非綫性關係。 交互特徵: 將多個特徵組閤起來,創造新的信息。 時間序列特徵: 提取日期相關的特徵(年、月、日、星期、季度、節假日),或基於時間窗口計算統計量(均值、最大值、最小值、變化率)。 類彆特徵處理: 獨熱編碼(One-Hot Encoding): 將類彆變量轉換為二進製嚮量,避免引入序數關係。 標簽編碼(Label Encoding): 將類彆變量映射為整數,適用於序數特徵或某些模型(如樹模型)。 目標編碼(Target Encoding): 使用目標變量的統計信息來編碼類彆特徵,能捕捉目標與類彆之間的關聯。 文本特徵處理: 文本清洗: 去除標點符號、數字、停用詞,轉換為小寫。 詞袋模型(Bag-of-Words, BoW): 將文本錶示為詞語頻率嚮量。 TF-IDF(Term Frequency-Inverse Document Frequency): 衡量詞語在文檔中的重要性。 詞嵌入(Word Embeddings): 如Word2Vec, GloVe,將詞語映射到低維嚮量空間,捕捉語義信息。 模型選擇與訓練: 監督學習: 迴歸問題: 綫性迴歸、多項式迴歸、嶺迴歸、Lasso迴歸、彈性網絡、支持嚮量迴歸(SVR)、決策樹迴歸、隨機森林迴歸、梯度提升迴歸(如XGBoost, LightGBM)。 分類問題: 邏輯迴歸、K近鄰(KNN)、支持嚮量機(SVM)、樸素貝葉斯、決策樹分類、隨機森林分類、梯度提升分類。 無監督學習: 聚類: K-Means、DBSCAN、層次聚類。 降維: PCA、LDA。 模型訓練流程: 數據集劃分(訓練集、驗證集、測試集)、模型實例化、參數訓練(`.fit()`)、預測(`.predict()`, `.predict_proba()`)。 超參數調優: 網格搜索(Grid Search): 窮舉搜索指定參數範圍內的所有組閤。 隨機搜索(Random Search): 在指定分布中隨機采樣參數組閤。 交叉驗證(Cross-Validation): K摺交叉驗證,用於更穩健的模型評估和超參數選擇。 第三部分:模型評估與部署 模型評估: 迴歸評估指標: 平均絕對誤差(MAE): 預測值與真實值之間絕對誤差的平均值。 均方誤差(MSE): 預測值與真實值之間誤差平方的平均值。 均方根誤差(RMSE): MSE的平方根,與原始數據具有相同的單位。 決定係數(R-squared): 模型解釋的方差比例,值越接近1越好。 分類評估指標: 準確率(Accuracy): 正確預測的樣本數占總樣本數的比例。 精確率(Precision): 預測為正類的樣本中,真實為正類的比例。 召迴率(Recall/Sensitivity): 真實為正類的樣本中,被模型預測為正類的比例。 F1-Score: 精確率和召迴率的調和平均數。 ROC麯綫與AUC值: 繪製不同閾值下的真正例率(TPR)與假正例率(FPR)的關係麯綫,AUC值越接近1越好。 混淆矩陣(Confusion Matrix): 直觀展示模型在各個類彆上的預測情況。 模型評估的誤區與注意事項: 過擬閤、欠擬閤的診斷,如何選擇閤適的評估指標。 模型部署與應用: 模型持久化: 使用`joblib`或`pickle`庫將訓練好的模型保存到文件,以便後續加載和復用。 構建API服務: 使用Flask或FastAPI框架,將模型封裝成RESTful API,使其能夠被其他應用程序調用。 模型集成(Ensemble Learning): Bagging(如隨機森林): 並行訓練多個模型,然後對結果進行平均(迴歸)或投票(分類)。 Boosting(如AdaBoost, Gradient Boosting, XGBoost, LightGBM): 順序訓練模型,每個模型都試圖糾正前一個模型的錯誤。 Stacking: 使用一個元模型(meta-model)來學習如何組閤基模型的預測結果。 實時預測與批量預測: 瞭解不同應用場景下的預測方式。 模型監控與迭代: 部署後的模型可能麵臨數據漂移等問題,需要進行監控和定期更新。 貫穿全書的實踐原則: 代碼質量: 強調編寫清晰、可讀、可維護的代碼,包括良好的注釋、變量命名和函數設計。 版本控製: 鼓勵使用Git等版本控製工具管理代碼和項目。 問題解決能力: 引導讀者分析數據科學項目的挑戰,培養獨立解決問題的能力。 持續學習: 數據科學領域發展迅速,本書鼓勵讀者保持好奇心,持續學習新的算法和工具。 本書旨在提供一個紮實的數據科學基礎,讓讀者能夠自信地處理真實世界的數據問題,從數據中提取有價值的見解,並構建有效的預測模型。無論您是希望開啓數據科學之旅的學生,還是希望提升技能的從業者,本書都將是您寶貴的參考。

用戶評價

評分

《TensorFlow:入門、原理與進階實戰》這本書最大的亮點在於它對概念的深度和廣度的把握。它不像一些入門書籍那樣流於錶麵,隻提供簡單的API調用,也不像一些理論書籍那樣晦澀難懂,讓人望而卻步。這本書就像一個橋梁,穩穩地連接瞭理論與實踐。它深入淺齣地解釋瞭TensorFlow底層的運作機製,例如計算圖的動態執行與靜態執行的對比,以及如何利用Session來管理計算的執行。對於變量的管理、占位符的使用、損失函數和優化器的選擇,都有詳盡的論述。我特彆欣賞作者在講解梯度下降時,不僅給齣瞭數學公式,還結閤TensorFlow的自動求導機製進行瞭解釋,讓我對反嚮傳播有瞭更深刻的理解。在進階部分,關於模型評估、超參數調優、模型部署等內容的介紹,也極大地拓寬瞭我的視野。它讓我認識到,構建一個高性能的深度學習模型,不僅僅是寫幾行代碼那麼簡單,還需要細緻的工程實踐。這本書幫助我從一個“代碼使用者”轉變為一個“理解者”,甚至是一個“創造者”。

評分

我一直對人工智能和機器學習很感興趣,也嘗試過閱讀一些相關的書籍,但很多都讓我覺得要麼過於理論化,要麼過於淺顯。直到我讀瞭《TensorFlow:入門、原理與進階實戰》這本書,纔真正體會到深度學習的魅力。這本書的敘事方式非常吸引人,作者用一種非常流暢和易於理解的語言,將TensorFlow的各個方麵娓娓道來。它不僅講解瞭如何使用TensorFlow來構建和訓練模型,更深入地剖析瞭模型背後的原理。例如,在講解捲積神經網絡時,作者不僅介紹瞭捲積層、池化層等基本組件,還詳細解釋瞭它們是如何提取圖像特徵的。書中還包含瞭大量的代碼示例,而且這些代碼都經過瞭精心設計,能夠清晰地展示每一個概念和技術的應用。我特彆喜歡書中關於模型優化的部分,提供瞭很多實用的技巧,比如學習率衰減、正則化等,這對於提升模型的性能至關重要。總而言之,這本書是一本兼具理論深度和實踐指導的優秀教材,讓我對深度學習有瞭更全麵、更深入的認識。

評分

這本《TensorFlow:入門、原理與進階實戰》真是一場機器學習的探索之旅!從零開始,作者循序漸進地將TensorFlow的核心概念一一展現在我們麵前。第一部分“入門”部分,就像一個經驗豐富的嚮導,帶領我這個初學者一步步熟悉TensorFlow的安裝、基礎語法以及如何構建簡單的神經網絡。我尤其喜歡它對各種API的講解,清晰明瞭,並配有大量的代碼示例,讓我能夠立刻動手實踐,加深理解。從“Hello World”級彆的綫性迴歸,到稍微復雜一點的圖像分類,每一步都充滿瞭成就感。書中並沒有止步於錶麵,而是深入剖析瞭TensorFlow的工作原理,比如計算圖的構建、張量的概念、變量的生命周期等等。這些“原理”部分雖然燒腦,但卻是真正理解TensorFlow精髓的關鍵。我能夠清晰地看到數據是如何在計算圖中流動,每一個操作是如何被執行的,這對於日後調試和優化模型至關重要。作者並沒有把這些原理講得枯燥乏味,而是巧妙地將其融入到實際應用中,讓我們在解決問題的過程中學會理論。總的來說,這本書的“入門”和“原理”部分為我打下瞭堅實的基礎,讓我不再畏懼深度學習的復雜性,而是對其充滿瞭好奇和探索的動力。

評分

這本書的“進階實戰”部分絕對是點睛之筆,將前兩部分的知識融會貫通,帶領讀者挑戰更復雜的深度學習任務。我特彆印象深刻的是關於捲積神經網絡(CNN)和循環神經網絡(RNN)的章節。作者不僅詳細講解瞭這些網絡結構的設計理念和數學原理,更提供瞭非常貼近實際的案例。比如,在圖像識彆的部分,我們不僅學會瞭如何構建經典的CNN模型,還學習瞭如何利用預訓練模型進行遷移學習,這對於處理小型數據集的項目來說簡直是福音。而在自然語言處理(NLP)方麵,RNN及其變種如LSTM和GRU的講解,以及它們在文本生成、情感分析等任務中的應用,都讓我大開眼界。讓我感到驚喜的是,書中還涉及到瞭一些更前沿的主題,比如注意力機製、Transformer模型等,這讓我看到瞭深度學習領域的最新發展趨勢。每一個實戰案例都包含瞭完整的代碼實現,並且對每一個步驟都進行瞭詳細的解釋,讓我們不僅知道“怎麼做”,更明白“為什麼這樣做”。通過這些實戰,我不僅鞏固瞭理論知識,更掌握瞭解決實際問題的能力,真正體會到瞭深度學習在各個領域的強大威力。

評分

作為一個有著一定編程基礎,但對深度學習知之甚少的讀者,我發現《TensorFlow:入門、原理與進階實戰》這本書簡直是為我量身定做的。它並沒有一開始就拋齣復雜的數學公式,而是從一個非常友好的角度切入,講解瞭TensorFlow的基本環境搭建和一些核心概念,比如張量(Tensor)和操作(Operation)。這些概念的引入非常自然,而且緊隨其後的例子也讓我能夠立刻上手,看到代碼運行的結果。隨著閱讀的深入,書中對神經網絡的原理講解也越來越到位。從單層感知機到多層感知機,再到更復雜的CNN和RNN,作者循序漸進地展示瞭這些模型是如何構建的,以及它們在不同任務中的應用。我尤其喜歡書中關於如何調試模型的部分,分享瞭一些實用的技巧,讓我能夠更有效地找齣代碼中的錯誤,並優化模型的性能。這本書的結構設計非常閤理,既有理論的深度,又不乏實踐的指導,讓我在學習過程中既能理解“為什麼”,又能掌握“怎麼做”。

相關圖書

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 book.coffeedeals.club All Rights Reserved. 靜流書站 版權所有