具體描述
商品參數
| scikit-learn機器學習:常用算法原理及編程實戰 |
| | 定價 | 59.00 |
| 齣版社 | 機械工業齣版社 |
| 版次 | 1 |
| 齣版時間 | 2018年02月 |
| 開本 | 16 |
| 作者 | 黃永昌 |
| 裝幀 | 平裝 |
| 頁數 | 0 |
| 字數 | 0 |
| ISBN編碼 | 9787111590248 |
內容介紹
本書通過通俗易懂的語言、豐富的圖示和生動的實例,撥開瞭籠罩在機器學習上方復雜的數學“烏雲”,讓讀者以較低的代價和門檻輕鬆入門機器學習。
本書共分為11章,介紹瞭在Python環境下學習scikit-learn機器學習框架的相關知識,涵蓋的主要內容有機器學習概述、Python機器學習軟件包、機器學習理論基礎、k-近鄰算法、綫性迴歸算法、邏輯迴歸算法、決策樹、支持嚮量機、樸素貝葉斯算法、PCA 算法和k-均值算法等。
本書適閤有一定編程基礎的讀者閱讀,尤其適閤想從事機器學習、人工智能、深度學習及機器人相關技術的程序員和愛好者閱讀。另外,相關院校和培訓機構也可以將本書作為教材使用。
目錄
前言
第1章 機器學習介紹 1
1.1 什麼是機器學習 1
1.2 機器學習有什麼用 2
1.3 機器學習的分類 3
1.4 機器學習應用開發的典型步驟 4
1.4.1 數據采集和標記 4
1.4.2 數據清洗 5
1.4.3 特徵選擇 5
1.4.4 模型選擇 5
1.4.5 模型訓練和測試 5
1.4.6 模型性能評估和優化 5
1.4.7 模型使用 6
1.5 復習題 6
第2章 Python機器學習軟件包 7
2.1 開發環境搭建 7
2.2 IPython簡介 8
2.2.1 IPython基礎 8
2.2.2 IPython圖形界麵 13
2.3 Numpy簡介 15
2.3.1 Numpy數組 15
2.3.2 Numpy運算 19
2.4 Pandas簡介 32
2.4.1 基本數據結構 32
2.4.2 數據排序 34
2.4.3 數據訪問 34
2.4.4 時間序列 36
2.4.5 數據可視化 36
2.4.6 文件讀寫 38
2.5 Matplotlib簡介 38
2.5.1 圖形樣式 38
2.5.2 圖形對象 40
2.5.3 畫圖操作 46
2.6 scikit-learn簡介 51
2.6.1 scikit-learn示例 51
2.6.2 scikit-learn一般性原理和通用規則 55
2.7 復習題 56
2.8 拓展學習資源 57
第3章 機器學習理論基礎 58
3.1 過擬閤和欠擬閤 58
3.2 成本函數 59
3.3 模型準確性 60
3.3.1 模型性能的不同錶述方式 61
3.3.2 交叉驗證數據集 61
3.4 學習麯綫 62
3.4.1 實例:畫齣學習麯綫 62
3.4.2 過擬閤和欠擬閤的特徵 65
3.5 算法模型性能優化 65
3.6 查準率和召迴率 66
3.7 F1 Score 67
3.8 復習題 67
第4章 k-近鄰算法 69
4.1 算法原理 69
4.1.1 算法優缺點 69
4.1.2 算法參數 70
4.1.3 算法的變種 70
4.2 示例:使用k-近鄰算法進行分類 70
4.3 示例:使用k-近鄰算法進行迴歸擬閤 72
4.4 實例:糖尿病預測 74
4.4.1 加載數據 74
4.4.2 模型比較 75
4.4.3 模型訓練及分析 77
4.4.4 特徵選擇及數據可視化 78
4.5 拓展閱讀 80
4.5.1 如何提高k-近鄰算法的運算效率 80
4.5.2 相關性測試 80
4.6 復習題 81
第5章 綫性迴歸算法 83
5.1 算法原理 83
5.1.1 預測函數 83
5.1.2 成本函數 84
5.1.3 梯度下降算法 84
5.2 多變量綫性迴歸算法 86
5.2.1 預測函數 86
5.2.2 成本函數 87
5.2.3 梯度下降算法 88
5.3 模型優化 89
5.3.1 多項式與綫性迴歸 89
5.3.2 數據歸一化 89
5.4 示例:使用綫性迴歸算法擬閤正弦函數 90
5.5 示例:測算房價 92
5.5.1 輸入特徵 92
5.5.2 模型訓練 93
5.5.3 模型優化 94
5.5.4 學習麯綫 95
5.6 拓展閱讀 96
5.6.1 梯度下降迭代公式推導 96
5.6.2 隨機梯度下降算法 96
5.6.3 標準方程 97
5.7 復習題 97
第6章 邏輯迴歸算法 98
6.1 算法原理 98
6.1.1 預測函數 98
6.1.2 判定邊界 99
6.1.3 成本函數 100
6.1.4 梯度下降算法 102
6.2 多元分類 102
6.3 正則化 103
6.3.1 綫性迴歸模型正則化 103
6.3.2 邏輯迴歸模型正則化 104
6.4 算法參數 104
6.5 實例:乳腺癌檢測 106
6.5.1 數據采集及特徵提取 106
6.5.2 模型訓練 108
6.5.3 模型優化 110
6.5.4 學習麯綫 111
6.6 拓展閱讀 113
6.7 復習題 114
第7章 決策樹 115
7.1 算法原理 115
7.1.1 信息增益 116
7.1.2 決策樹的創建 119
7.1.3 剪枝算法 120
7.2 算法參數 121
7.3 實例:預測泰坦尼剋號幸存者 122
7.3.1 數據分析 122
7.3.2 模型訓練 123
7.3.3 優化模型參數 124
7.3.4 模型參數選擇工具包 127
7.4 拓展閱讀 130
7.4.1 熵和條件熵 130
7.4.2 決策樹的構建算法 130
7.5 集閤算法 131
7.5.1 自助聚閤算法Bagging 131
7.5.2 正嚮激勵算法boosting 131
7.5.3 隨機森林 132
7.5.4 ExtraTrees算法 133
7.6 復習題 133
第8章 支持嚮量機 134
8.1 算法原理 134
8.1.1 大間距分類算法 134
8.1.2 鬆弛係數 136
8.2 核函數 138
8.2.1 *簡單的核函數 138
8.2.2 相似性函數 140
8.2.3 常用的核函數 141
8.2.4 核函數的對比 142
8.3 scikit-learn裏的SVM 144
8.4 實例:乳腺癌檢測 146
8.5 復習題 149
第9章 樸素貝葉斯算法 151
9.1 算法原理 151
9.1.1 貝葉斯定理 151
9.1.2 樸素貝葉斯分類法 152
9.2 一個簡單的例子 153
9.3 概率分布 154
9.3.1 概率統計的基本概念 154
9.3.2 多項式分布 155
9.3.3 高斯分布 158
9.4 連續值的處理 159
9.5 實例:文檔分類 160
9.5.1 獲取數據集 160
9.5.2 文檔的數學錶達 161
9.5.3 模型訓練 163
9.5.4 模型評價 165
9.6 復習題 167
第10章 PCA算法 168
10.1 算法原理 168
10.1.1 數據歸一化和縮放 169
10.1.2 計算協方差矩陣的特徵嚮量 169
10.1.3 數據降維和恢復 170
10.2 PCA 算法示例 171
10.2.1 使用Numpy模擬PCA計算過程 171
10.2.2 使用sklearn進行PCA降維運算 173
10.2.3 PCA的物理含義 174
10.3 PCA 的數據還原率及應用 175
10.3.1 數據還原率 175
10.3.2 加快監督機器學習算法的運算速度 176
10.4 實例:人臉識彆 176
10.4.1 加載數據集 176
10.4.2 一次失敗的嘗試 179
10.4.3 使用PCA來處理數據集 182
10.4.4 *終結果 185
10.5 拓展閱讀 189
10.6 復習題 189
第11章 k-均值算法 190
11.1 算法原理 190
11.1.1 k-均值算法成本函數 191
11.1.2 隨機初始化聚類中心點 191
11.1.3 選擇聚類的個數 192
11.2 scikit-learn裏的k-均值算法 192
11.3 使用k-均值對文檔進行聚類分析 195
11.3.1 準備數據集 195
11.3.2 加載數據集 196
11.3.3 文本聚類分析 197
11.4 聚類算法性能評估 200
11.4.1 Adjust Rand Index 200
11.4.2 齊次性和完整性 201
11.4.3 輪廓係數 203
11.5 復習題 204
後記 205
《Python深度學習與人工智能應用實踐》 內容簡介: 本書旨在為讀者構建一個紮實的深度學習理論基礎,並結閤Python豐富的生態係統,深入剖析現代人工智能的核心技術。從基礎概念的梳理,到主流模型的設計與實現,再到實際應用場景的拓展,本書力求為開發者、研究者以及對人工智能充滿熱情的朋友們提供一條清晰的學習路徑。我們關注的不僅是算法的“是什麼”,更是“為什麼”以及“如何”在真實世界中解決問題。 第一部分:深度學習基礎理論與Python實現 本部分將帶領讀者從頭開始,係統性地理解深度學習的基石。 神經網絡的演進與構建: 我們將從簡單的感知機模型入手,逐步介紹多層感知機(MLP)的結構,理解激活函數的作用(如Sigmoid, ReLU, Tanh),以及如何利用反嚮傳播算法進行參數更新。我們將詳細解釋損失函數(如交叉熵、均方誤差)在模型訓練中的角色,以及優化器(如SGD, Adam, RMSprop)如何加速收斂並剋服局部最優。此外,還會探討正則化技術(如L1, L2, Dropout)在防止過擬閤中的重要性。 捲積神經網絡(CNN)原理與應用: 針對圖像處理任務,CNN是不可或缺的工具。我們將深入講解捲積層、池化層(最大池化、平均池化)的設計思想,理解捲積核(Filter)是如何提取圖像特徵的,以及感受野(Receptive Field)的概念。本書將詳細解析經典的CNN架構,如LeNet-5, AlexNet, VGGNet, GoogLeNet (Inception) 和 ResNet,分析它們在層級結構、網絡深度和參數共享等方麵的創新之處。通過Python代碼示例,讀者將學習如何使用TensorFlow/Keras或PyTorch構建和訓練自己的CNN模型,解決圖像分類、目標檢測和圖像分割等問題。 循環神經網絡(RNN)及其變種: 對於序列數據,RNN是處理文本、語音等信息的關鍵。我們將詳細闡述RNN的循環機製,理解其在捕捉時序依賴性方麵的優勢和局限性。在此基礎上,我們將重點介紹長短期記憶網絡(LSTM)和門控循環單元(GRU)的內部結構,解析它們如何通過門控機製有效緩解梯度消失/爆炸問題,從而學習長距離依賴。本書將提供使用Python實現RNN、LSTM和GRU的實踐代碼,引導讀者完成情感分析、機器翻譯、文本生成等任務。 注意力機製(Attention Mechanism)與Transformer模型: 近年來,注意力機製徹底改變瞭序列建模的格局。我們將深入剖析注意力機製的原理,包括查詢(Query)、鍵(Key)、值(Value)的概念,以及自注意力(Self-Attention)和跨注意力(Cross-Attention)的不同應用。在此基礎上,我們將詳細講解Transformer模型的架構,理解其如何摒棄瞭RNN的循環結構,完全依賴於自注意力機製來處理序列信息。本書將重點關注Transformer在自然語言處理(NLP)領域的強大錶現,如BERT、GPT係列等預訓練模型的原理與微調方法。通過實踐,讀者將學習如何利用Transformer構建更強大的NLP模型。 生成對抗網絡(GAN)及其衍生模型: GAN作為生成模型的一大突破,能夠生成逼真的圖像、文本甚至音頻。我們將詳細介紹GAN的基本框架,包括生成器(Generator)和判彆器(Discriminator)如何相互博弈,實現逼真的數據生成。本書將深入講解DCGAN(Deep Convolutional GAN)、StyleGAN、CycleGAN等經典GAN模型的改進和應用,涵蓋圖像生成、風格遷移、超分辨率等前沿方嚮。讀者將有機會通過代碼實踐,體驗從零開始構建和訓練GAN模型的樂趣。 第二部分:人工智能核心技術與Python實踐 本部分將拓展深度學習的應用範疇,深入探討人工智能的其他關鍵技術,並強調Python在其中的重要作用。 機器學習基礎迴顧與Python工具鏈: 盡管本書重點是深度學習,但對傳統機器學習算法的理解仍然至關重要。我們將簡要迴顧監督學習(迴歸、分類)、無監督學習(聚類、降維)和強化學習的基本概念。在此基礎上,本書將重點介紹Python在機器學習領域的強大工具鏈,包括NumPy(數值計算)、Pandas(數據處理)、Matplotlib/Seaborn(數據可視化)等。我們將重點講解Scikit-learn庫的常用功能,如數據預處理(特徵縮放、編碼)、模型選擇(交叉驗證、網格搜索)以及基礎算法的實現(如綫性迴歸、邏輯迴歸、支持嚮量機、決策樹、隨機森林、K-Means等),為讀者提供一個紮實的實踐起點。 自然語言處理(NLP)進階: 除瞭Transformer模型,我們將深入探討NLP的其他重要技術。包括詞嵌入(Word Embeddings)如Word2Vec、GloVe的原理與應用,詞性標注(Part-of-Speech Tagging)、命名實體識彆(Named Entity Recognition)等任務的常見模型與實現。我們將介紹如何利用NLTK、spaCy等Python庫進行文本預處理、分詞、詞性分析等操作。此外,還會涉及主題模型(如LDA)在文本挖掘中的應用。 計算機視覺(CV)進階: 在CNN的基礎上,我們將進一步探索計算機視覺的更多前沿技術。例如,目標檢測算法(如R-CNN係列、YOLO、SSD)的原理與實現,語義分割與實例分割(如FCN, U-Net, Mask R-CNN)的技術細節,以及圖像生成、圖像修復、姿態估計等應用。我們將介紹OpenCV等圖像處理庫的使用,以及如何在實際項目中部署和優化CV模型。 強化學習(RL)導論與實踐: 強化學習作為人工智能的重要分支,在遊戲AI、機器人控製等領域展現齣巨大潛力。我們將介紹強化學習的基本概念,如智能體(Agent)、環境(Environment)、狀態(State)、動作(Action)、奬勵(Reward)以及策略(Policy)。本書將詳細講解Q-learning、SARSA等經典強化學習算法,並介紹深度強化學習(DRL)的概念,如DQN(Deep Q-Network)如何結閤深度學習解決高維狀態空間問題。讀者將通過Python代碼實現簡單的RL環境和算法,理解RL的工作流程。 模型部署與優化: 理論知識與實際應用之間存在鴻溝。本書將指導讀者如何將訓練好的模型部署到實際環境中。我們將介紹模型序列化(如Pickle, HDF5, ONNX)的方法,以及如何在服務器端(如Flask, FastAPI)或邊緣設備上進行推理。此外,還會探討模型壓縮、量化、剪枝等技術,以提高模型的推理速度和效率,使其能夠更好地服務於實際應用。 第三部分:人工智能應用場景與案例分析 本部分將結閤實際案例,展示深度學習和人工智能如何在各個領域發揮作用。 智能推薦係統: 分析協同過濾、基於內容的推薦以及混閤推薦等策略,並探討如何利用深度學習模型(如矩陣分解、深度神經網絡)構建更精準的推薦係統。 智能問答與對話係統: 介紹基於規則、信息檢索和深度學習的問答係統,以及端到端的對話係統設計。 自動駕駛與機器人技術: 探討計算機視覺在感知層麵的應用,如障礙物檢測、車道綫識彆,以及路徑規劃和控製策略。 醫療健康領域的AI應用: 如醫學影像分析、疾病診斷輔助、藥物研發等。 金融領域的AI應用: 如信用評分、欺詐檢測、量化交易等。 學習方法與本書特色: 本書強調理論與實踐相結閤。每一章節都配有清晰的Python代碼示例,讀者可以跟隨代碼進行動手實踐,加深對算法原理的理解。我們鼓勵讀者在學習過程中積極思考,嘗試修改參數、調整模型結構,探索不同的解決方案。本書內容由淺入深,循序漸進,旨在為初學者提供一條易於上手的學習路徑,同時也為有一定基礎的開發者提供深入的理論探討和前沿的技術視野。本書力求內容詳實,語言通俗易懂,避免使用過於晦澀的術語,力求讓每一位讀者都能在人工智能的海洋中有所收獲。 目標讀者: 對人工智能、機器學習、深度學習感興趣的在校學生。 希望提升編程技能、掌握AI應用開發的軟件工程師。 需要將AI技術應用於自身業務的各行業從業者。 希望深入理解AI技術原理的研究人員。 任何對創造智能係統充滿好奇和熱情的個人。 通過閱讀本書,您將不僅掌握深度學習的核心算法和Python實現技巧,更能培養獨立解決AI問題的能力,為您的職業發展和個人探索開啓無限可能。