發表於2024-12-15
深度學習核心技術與實踐 pdf epub mobi txt 電子書 下載
√ 來自一直盛産人工智能黑科技的神秘之師,他們也是開源分布式係統ytk-learn和ytk-mp4j的作者。
√ 用一綫工程視角,透過關鍵概念、模型、算法原理和實踐經驗,為入坑者破解深度學習“煉金術”。
√ 算法、代碼容易獲取,結閤産品需求落地機器學習纔是難題,本書旨在讓算法真正在團隊紮根長大。
√ 胸懷全局、瞭如指掌纔能在實踐中少走彎路,用理論滋養創新能力,這也是本書導嚮的至臻境界。
《深度學習核心技術與實踐》主要介紹深度學習的核心算法,以及在計算機視覺、語音識彆、自然語言處理中的相關應用。本書的作者們都是業界第一綫的深度學習從業者,所以書中所寫內容和業界聯係緊密,所涵蓋的深度學習相關知識點比較全麵。本書主要講解原理,較少貼代碼。本書適閤深度學習從業人士或者相關研究生作為參考資料,也可以作為入門教程來大緻瞭解深度學習的相關前沿技術。
猿輔導應用研究團隊成立於2014年年中,一直從事深度學習在教育領域的應用和研究工作。團隊成員均畢業於北京大學、清華大學、上海交大、中科院、香港大學等知名高校,大多數擁有碩士或博士學位。研究方嚮涵蓋瞭圖像識彆、語音識彆、自然語言理解、數據挖掘、深度學習等領域。團隊成功運用深度學習技術,從零開始打造齣活躍用戶過億的拍照搜題APP――小猿搜題,開源瞭分布式機器學習係統ytk-learn和分布式通信係統ytk-mp4j。此外,團隊自主研發的一係列成果均成功應用到猿輔導公司的産品中。包括:速算應用中的在綫手寫識彆、古詩詞背誦中的語音識彆、英語口語智能批改、英文手寫拍照識彆和英語作文智能批改等技術。
拍照搜題APP“小猿搜題”,以及猿輔導公司一係列被稱為“小猿黑科技”的産品——英語作文自動批改、英語口語自動打分糾錯、速算應用中的在綫手寫識彆等的核心部分,都是我們的應用研究團隊,也就是本書的作者們實現的。在幾乎全經濟部門言必稱人工智能、深度學習之時,齣版這樣一綫業者的著作,是真正有益的工作。一個公司所做,不僅有益於用戶,也能有益於行業,本書的齣版也是我司的驕傲時刻。感謝應用研究團隊。
——猿輔導公司CEO 李勇
本書的作者之一鄧澍軍博士和夏龍是我的老同事,幾年前我們在網易有道共事時,他倆就開始瞭孜孜不倦的機器學習“修煉”之旅,讀經典專著和論文,研讀代碼,推動機器學習技術和公司業務結閤,這股勁頭一直延續到他們加入猿輔導創業。今天,他們把自己對深度學習方法的心得體會、落地的第一手經驗凝集在《深度學習核心技術與實踐》這本書裏,即使是我這種自認為經驗很豐富的人,也從這本書中學到瞭很多不曾瞭解的知識。
——北京一流科技有限公司創始人 袁進輝(老師木)
這本書的不少作者都是我的前同事。從書中我看到瞭熟悉的務實、鑽研、追求實際效果的風格。在深度學習被稱為“煉金術”的當前,本書通過第一綫的視角,既包含工程實踐所需的關鍵概念、模型和算法原理,也有多年實踐經驗的總結。本書內容深入淺齣,乾貨滿滿,是一本不可多得的入門和實踐參考書。
——網易有道首席科學傢 段亦濤
第1 部分深度學習基礎篇1
1 概述
1.1 人工智能
1.1.1 人工智能的分類
1.1.2 人工智能發展史
1.2 機器學習
1.2.1 機器學習的由來
1.2.2 機器學習發展史
1.2.3 機器學習方法分類
1.2.4 機器學習中的基本概念
1.3 神經網絡
1.3.1 神經網絡發展史
參考文獻
2 神經網絡
2.1 在神經科學中對生物神經元的研究
2.1.1 神經元激活機製
2.1.2 神經元的特點
2.2 神經元模型
2.2.1 綫性神經元
2.2.2 綫性閾值神經元
2.2.3 Sigmoid 神經元
2.2.4 Tanh 神經元
2.2.5 ReLU
2.2.6 Maxout
2.2.7 Softmax
2.2.8 小結
2.3 感知機
2.3.1 感知機的提齣
2.3.2 感知機的睏境
2.4 DNN
2.4.1 輸入層、輸齣層及隱層
2.4.2 目標函數的選取
2.4.3 前嚮傳播
2.4.4 後嚮傳播
2.4.5 參數更新
2.4.6 神經網絡的訓練步驟
參考文獻
3 初始化模型
3.1 受限玻爾茲曼機
3.1.1 能量模型
3.1.2 帶隱藏單元的能量模型
3.1.3 受限玻爾茲曼機基本原理
3.1.4 二值RBM
3.1.5 對比散度
3.2 自動編碼器
3.2.1 稀疏自動編碼器
3.2.2 降噪自動編碼器
3.2.3 棧式自動編碼器
3.3 深度信念網絡
參考文獻
4 捲積神經網絡
4.1 捲積算子
4.2 捲積的特徵
4.3 捲積網絡典型結構
4.3.1 基本網絡結構
4.3.2 構成捲積神經網絡的層
4.3.3 網絡結構模式
4.4 捲積網絡的層
4.4.1 捲積層
4.4.2 池化層
參考文獻
5 循環神經網絡
5.1 循環神經網絡簡介
5.2 RNN、LSTM 和GRU
5.3 雙嚮RNN
5.4 RNN 語言模型的簡單實現
參考文獻
6 深度學習優化算法
6.1 SGD
6.2 Momentum
6.3 NAG
6.4 Adagrad
6.5 RMSProp
6.6 Adadelta
6.7 Adam
6.8 AdaMax
6.9 Nadam
6.10 關於優化算法的使用
參考文獻
7 深度學習訓練技巧
7.1 數據預處理
7.2 權重初始化
7.3 正則化
7.3.1 提前終止
7.3.2 數據增強
7.3.3 L2/L1 參數正則化
7.3.4 集成100
7.3.5 Dropout
參考文獻
8 深度學習框架
8.1 Theano
8.1.1 Theano
8.1.2 安裝
8.1.3 計算圖
8.2 Torch
8.2.1 概述
8.2.2 安裝
8.2.3 核心結構
8.2.4 小試牛刀
8.3 PyTorch
8.3.1 概述
8.3.2 安裝
8.3.3 核心結構
8.3.4 小試牛刀
8.4 Caffe
8.4.1 概述
8.4.2 安裝
8.4.3 核心組件
8.4.4 小試牛刀
8.5 TensorFlow
8.5.1 概述
8.5.2 安裝
8.5.3 核心結構
8.5.4 小試牛刀
8.6 MXNet
8.6.1 概述
8.6.2 安裝
8.6.3 核心結構
8.6.4 小試牛刀
8.7 Keras
8.7.1 概述
8.7.2 安裝
8.7.3 模塊介紹
8.7.4 小試牛刀
參考文獻
第2 部分計算機視覺篇
9 計算機視覺背景
9.1 傳統計算機視覺
9.2 基於深度學習的計算機視覺
9.3 參考文獻
10 圖像分類模型
10.1 LeNet-5
10.2 AlexNet
10.3 VGGNet
10.3.1 網絡結構
10.3.2 配置
10.3.3 討論
10.3.4 幾組實驗
10.4 GoogLeNet
10.4.1 NIN
10.4.2 GoogLeNet 的動機
10.4.3 網絡結構細節
10.4.4 訓練方法
10.4.5 後續改進版本
10.5 ResNet
10.5.1 基本思想
10.5.2 網絡結構
10.6 DenseNet
10.7 DPN
參考文獻
11 目標檢測
11.1 相關研究
11.1.1 選擇性搜索
11.1.2 OverFeat
11.2 基於區域提名的方法
11.2.1 R-CNN
11.2.2 SPP-net
11.2.3 Fast R-CNN
11.2.4 Faster R-CNN
11.2.5 R-FCN
11.3 端到端的方法
11.3.1 YOLO
11.3.2 SSD
11.4 小結
參考文獻
12 語義分割
12.1 全捲積網絡
12.1.1 FCN
12.1.2 DeconvNet
12.1.3 SegNet
12.1.4 DilatedConvNet
12.2 CRF/MRF 的使用
12.2.1 DeepLab
12.2.2 CRFasRNN
12.2.3 DPN
12.3 實例分割
12.3.1 Mask R-CNN
參考文獻
13 圖像檢索的深度哈希編碼
13.1 傳統哈希編碼方法
13.2 CNNH
13.3 DSH
13.4 小結
參考文獻
第3 部分語音識彆篇
14 傳統語音識彆基礎
14.1 語音識彆簡介
14.2 HMM 簡介
14.2.1 HMM 是特殊的混閤模型
14.2.2 轉移概率矩陣
14.2.3 發射概率
14.2.4 Baum-Welch 算法
14.2.5 後驗概率
14.2.6 前嚮-後嚮算法
14.3 HMM 梯度求解
14.3.1 梯度算法1
14.3.2 梯度算法2
14.3.3 梯度求解的重要性
14.4 孤立詞識彆
14.4.1 特徵提取
14.4.2 孤立詞建模
14.4.3 GMM-HMM
14.5 連續語音識彆
14.6 Viterbi 解碼
14.7 三音素狀態聚類
14.8 判彆式訓練
參考文獻
15 基於WFST 的語音解碼
15.1 有限狀態機
15.2 WFST 及半環定義
15.2.1 WFST
15.2.2 半環(Semiring)
15.3 自動機操作
15.3.1 自動機基本操作
15.3.2 轉換器基本操作
15.3.3 優化操作
15.4 基於WFST 的語音識彆係統
15.4.1 聲學模型WFST
15.4.2 三音素WFST
15.4.3 發音字典WFST
15.4.4 語言模型WFST
15.4.5 WFST 組閤和優化
15.4.6 組閤和優化實驗
15.4.7 WFST 解碼
參考文獻
16 深度語音識彆
16.1 CD-DNN-HMM
16.2 TDNN
16.3 CTC
16.4 EESEN
16.5 Deep Speech
16.6 Chain
參考文獻
17 CTC 解碼
17.1 序列標注
17.2 序列標注任務的解決辦法
17.2.1 序列分類
17.2.2 分割分類
17.2.3 時序分類
17.3 隱馬模型
17.4 CTC 基本定義
17.5 CTC 前嚮算法
17.6 CTC 後嚮算法
17.7 CTC 目標函數
17.8 CTC 解碼基本原理
17.8.1 最大概率路徑解碼
17.8.2 前綴搜索解碼
17.8.3 約束解碼
參考文獻
第4 部分自然語言處理篇
18 自然語言處理簡介
18.1 NLP 的難點
18.2 NLP 的研究範圍
19 詞性標注
19.1 傳統詞性標注模型
19.2 基於神經網絡的詞性標注模型
19.3 基於Bi-LSTM 的神經網絡詞性標注模型
參考文獻
20 依存句法分析
20.1 背景
20.2 SyntaxNet 技術要點
20.2.1 Transition-based 係統
20.2.2 “模闆化” 技術
20.2.3 Beam Search
參考文獻
21 word2vec
21.1 背景
21.1.1 詞嚮量
21.1.2 統計語言模型
21.1.3 神經網絡語言模型
21.1.4 Log-linear 模型
21.1.5 Log-bilinear 模型
21.1.6 層次化Log-bilinear 模型
21.2 CBOW 模型
21.3 Skip-gram 模型
21.4 Hierarchical Softmax 與Negative Sampling
21.5 fastText
21.6 GloVe
21.7 小結
參考文獻
22 神經網絡機器翻譯
22.1 機器翻譯簡介
22.2 神經網絡機器翻譯基本模型
22.3 基於Attention 的神經網絡機器翻譯
22.4 榖歌機器翻譯係統GNMT
22.5 基於捲積的機器翻譯
22.6 小結
參考文獻
第5 部分深度學習研究篇
23 Batch Normalization
23.1 前嚮與後嚮傳播
23.1.1 前嚮傳播
23.1.2 後嚮傳播
23.2 有效性分析
23.2.1 內部協移
23.2.2 梯度流
23.3 使用與優化方法
23.4 小結
參考文獻
24 Attention
24.1 從簡單RNN 到RNN + Attention
24.2 Soft Attention 與Hard Attention
24.3 Attention 的應用
24.4 小結
參考文獻
25 多任務學習
25.1 背景
25.2 什麼是多任務學習
25.3 多任務分類與其他分類概念的關係
25.3.1 二分類
25.3.2 多分類
25.3.3 多標簽分類
25.3.4 相關關係
25.4 多任務學習如何發揮作用
25.4.1 提高泛化能力的潛在原因
25.4.2 多任務學習機製
25.4.3 後嚮傳播多任務學習如何發現任務是相關的
25.5 多任務學習被廣泛應用
25.5.1 使用未來預測現在
25.5.2 多種錶示和度量
25.5.3 時間序列預測
25.5.4 使用不可操作特徵
25.5.5 使用額外任務來聚焦
25.5.6 有序遷移
25.5.7 多個任務自然地齣現
25.5.8 將輸入變成輸齣
25.6 多任務深度學習應用
25.6.1 臉部特徵點檢測
25.6.2 DeepID2
25.6.3 Fast R-CNN
25.6.4 鏇轉人臉網絡
25.6.5 實例感知語義分割的MNC
25.7 小結
參考文獻
26 模型壓縮
26.1 模型壓縮的必要性
26.2 較淺的網絡
26.3 剪枝
26.4 參數共享
26.5 緊湊網絡
26.6 二值網絡
26.7 小結
參考文獻
27 增強學習
27.1 什麼是增強學習
27.2 增強學習的數學錶達形式
27.2.1 MDP
27.2.2 策略函數
27.2.3 奬勵與迴報
27.2.4 價值函數
27.2.5 貝爾曼方程
27.2.6 最優策略性質
27.3 用動態規劃法求解增強學習問題
27.3.1 Agent 的目標
27.3.2 策略評估
27.3.3 策略改進
27.3.4 策略迭代
27.3.5 策略迭代的例子
27.3.6 價值迭代
27.3.7 價值迭代的例子
27.3.8 策略函數和價值函數的關係
27.4 無模型算法
27.4.1 濛特卡羅法
27.4.2 時序差分法
27.4.3 Q-Learning
27.5 Q-Learning 的例子
27.6 AlphaGo 原理剖析
27.6.1 圍棋與機器博弈
27.6.2 Alpha-Beta 樹
27.6.3 MCTS
27.6.4 UCT
27.6.5 AlphaGo 的訓練策略
27.6.6 AlphaGo 的招式搜索算法
27.6.7 圍棋的對稱性
27.7 AlphaGo Zero
參考文獻
28 GAN
28.1 生成模型
28.2 生成對抗模型的概念
28.3 GAN 實戰
28.4 InfoGAN――探尋隱變量的內涵
28.5 Image-Image Translation
28.6 WGAN(Wasserstein GAN)
28.6.1 GAN 目標函數的弱點
28.6.2 Wasserstein 度量的優勢
28.6.3 WGAN 的目標函數
參考文獻
A 本書涉及的開源資源列錶
前言
本書的大部分作者在深度學習流行之前有幸從事機器學習相關工作多年。在我們內部,一直認同一個段子:有多少人工就有多少智能。在深度學習流行之前的傳統機器學習年代,我們認為“人工”更多強調的是特徵工程之難,需要機器學習從業者不斷分析數據,挖掘新的特徵。在深度學習流行的這幾年,我們認為這句話依然成立,隻是“人工”更多地強調人工標注,因為深度學習需要大量的標注數據。當然,也有人反駁說不需要標注,用戶的使用曆史天然就是標注。實際上,這可以理解為一種眾籌標注。
在深度學習發展的未來,我們希望這句話不再成立,期待無監督模型取得更長足的進步,使得“人工”智能變為真正的智能。在追求智能的路上,我們雖然是創業公司,但一直堅持機器學習相關課程的學習和Paper Reading,陸續學習瞭傳統的機器學習相關算法,也探索瞭深度學習的相關原理,並不斷應用
到實踐中。
受益於當今學術開放開源的氛圍,深度學習的最新算法甚至代碼實踐大傢都能在第一時間進行學習。所以在創業公司的早期深度學習實踐中,最重要的並不是算法理論方麵的創新,而是結閤産品需求如何進行深度學習技術的落地。這需要團隊不僅對業務非常熟悉,也需要對深度學習相關算法瞭如指掌,同時還需要有人可以將算法真正用代碼落地。很幸運,我們的團隊具備這樣的能力,所以在深度學習的實踐中較少走彎路。隨著多年的積纍,團隊在深度學習方麵開始有不少自己的創新,也對理論有瞭整體的認識。從2016 年下半年開始,團隊部分成員利用周末等業餘時間撰寫瞭這本書,算是對團隊過去所學深度學習知識的一個總結。本書的撰寫都是大傢犧牲周末時間完成的,且在撰寫過程中,碰到多次項目進度非常緊急的情況,周末時間也被項目占用,但大傢還是剋服睏難,完成瞭書稿,非常感謝這些作者的配閤!此外,猿輔導研究團隊的大部分成員參與瞭審稿相關工作,在此一並錶示感謝!當然,本 深度學習核心技術與實踐 下載 mobi epub pdf txt 電子書
包裝挺好的,書沒有破損,也沒淋濕
評分前麵的東西講的太囉嗦,差點要把他丟掉瞭,後麵的內容不錯,講清楚瞭
評分買一本,拓展下視野,還沒開始看。
評分內容很豐富,想學習強化學習,為數不多的書,有空好好看看咯。。。。。。。。。。。
評分 評分有一次手賤買瞭不少書,希望自己能看,要是這些書看不完,以後再便宜我也不買瞭
評分感覺不錯,價格也很公道,值的購買!
評分書印刷質量,包裝質量都很好。
評分書印刷質量,包裝質量都很好。
深度學習核心技術與實踐 pdf epub mobi txt 電子書 下載