包邮 深度学习之TensorFlow:入门、原理与进阶实战+scikit|7634822

包邮 深度学习之TensorFlow:入门、原理与进阶实战+scikit|7634822 pdf epub mobi txt 电子书 下载 2025

李金洪,黄永昌 著
图书标签:
  • 深度学习
  • TensorFlow
  • 机器学习
  • Python
  • scikit-learn
  • 人工智能
  • 算法
  • 实战
  • 入门
  • 进阶
想要找书就要到 静流书站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!
店铺: 互动创新图书专营店
出版社: 机械工业出版社
ISBN:9787
商品编码:27281222490
出版时间:2018-03-01

具体描述

 书[0名0]:  深度[0学0]习之TensorFlow:入门、原理与进阶实战+scikit-learn [1机1] 器[0学0]习:常用算[0法0]原理及编程实战|7634822
 图书定价:  158元
 图书作者:  李金洪;黄永昌
 出版社:   [1机1] 械工业出版社
 出版日期:  2018/3/1 0:00:00
 ISBN号:  9787
 开本:  16开
 页数:  0
 版次:  1-1
 内容简介
《深度[0学0]习之TensorFlow:入门、原理与进阶实战》
本书针对TensorFlow 1.0以上版本编写,采用“理论+实践”的形式编写,通过[0大0]量的实例(共96个),全面而深入地讲解“深度[0学0]习神经网络原理”和“Tensorflow使用方[0法0]”两方面。书中的实例具有很强的实用,如对图片分类、制作一个简单的聊天 [1机1] 器人、进行图像识别等。书中的每章都配有一段教[0学0]视频,视频和图书具有一样的内容和结构,能帮助读者快速而全面地了解本章的内容。本书还免费提供了所有案例的源代码及数据样本,这些代码和样本不仅方便了读者[0学0]习,而且也能为以后的工作提供便利。
全书共分为3篇:[0第0]1篇“深度[0学0]习与TensorFlow基础”,包括快速了解人工智能与TensorFlow、搭建开发环境、TensorFlow基本开发步骤、TensorFlow编程基础、一个识别图中模糊的数字的案例;[0第0]2篇“深度[0学0]习基础——神经网络”介绍了神经网络的基础模型,包括单个神经元、多层神经网络、卷积神经网络、循环神经网络、自编码网络;[0第0]3篇“神经网络进阶”,是对基础网络模型的灵活运用与自由组合,是对前面[0知0]识的综合及拔高,包括深度神经网络、对抗神经网络。
本书结构清晰、案例丰富、通俗易懂、实用性强。特别适合TensorFlow深度[0学0]习的初[0学0]者和进阶读者作为自[0学0]教程阅读。另外,本书也适合社[0会0]培训[0学0]校作为培训教材使用,还适合[0大0]中专院校的相关专业作为教[0学0]参考书。
《scikit-learn [1机1] 器[0学0]习:常用算[0法0]原理及编程实战》
本书通过通俗易懂的语言、丰富的图示和生动的实例,拨开了笼罩在 [1机1] 器[0学0]习上方复杂的数[0学0]“乌云”,让读者以较低的代价和门槛轻松入门 [1机1] 器[0学0]习。
本书共分为11章,介绍了在Python环境下[0学0]习scikit-learn [1机1] 器[0学0]习框架的相关[0知0]识,涵盖的主要内容有 [1机1] 器[0学0]习概述、Python [1机1] 器[0学0]习软件包、 [1机1] 器[0学0]习理论基础、k-近邻算[0法0]、线性回归算[0法0]、逻辑回归算[0法0]、决策树、支持向量 [1机1] 、朴素贝叶斯算[0法0]、PCA 算[0法0]和k-均值算[0法0]等。
本书适合有一定编程基础的读者阅读,尤其适合想从事 [1机1] 器[0学0]习、人工智能、深度[0学0]习及 [1机1] 器人相关技术的程序员和爱好者阅读。另外,相关院校和培训 [1机1] 构也可以将本书作为教材使用。
scikit-learn [1机1] 器[0学0]习
常用算[0法0]原理及编程实战
出版发行: [1机1] 械工业出版社(北京市西城区百万庄[0大0]街22号邮政编码:100037)
责任编辑:欧振旭 李华君 责任校对:姚志娟
印刷:中[0国0]电影出版社印刷厂 版次:2018年3月[0第0]1版[0第0]1次印刷
开本:186mm×240mm 1/16 印张:13.75
书号:ISBN 978-7-111-59024-8 定价:59.00元
凡购本书,如有缺页、倒页、脱页,由本社发行部调换
客服热线:(010)8837942688361066 投稿热线:(010)88379604
购书热线:(010)683262948837964968995259 读者信箱:hzit@hzbook.com
版[0[0权0]0]所有·侵[0[0权0]0]必究
封底无防伪标均为盗版
本书[0法0]律顾问:北京[0大0]成律师事务所韩光/邹晓东
 目录

《深度[0学0]习之TensorFlow:入门、原理与进阶实战 》
配套[0学0]习资源
前言
[0第0]1篇 深度[0学0]习与TensorFlow基础
[0第0]1章 快速了解人工智能与TensorFlow 2
1.1 什么是深度[0学0]习 2
1.2 TensorFlow是做什么的 3
1.3 TensorFlow的特点 4
1.4 其他深度[0学0]习框架特点及介绍 5
1.5 如何通过本书[0学0]好深度[0学0]习 6
1.5.1 深度[0学0]习怎么[0学0] 6
1.5.2 如何[0学0]习本书 7
[0第0]2章 搭建开发环境 8
2.1 下载及安装Anaconda开发工具 8
2.2 在Windows平台下载及安装TensorFlow 11
2.3 GPU版本的安装方[0法0] 12
2.3.1 安装CUDA软件包 12
2.3.2 安装cuDNN库 13
2.3.3 测试显卡 14
2.4 熟悉Anaconda 3开发工具 15
2.4.1 快速了解Spyder 16
2.4.2 快速了解Jupyter [0No0]tebook 18
[0第0]3章 TensorFlow基本开发步骤——以逻辑回归拟合二维数据为例 19
3.1 实例1:从一组看似混乱的数据中找出y≈2x的规律 19
3.1.1 准备数据 20
3.1.2 搭建模型 21
3.1.3 迭代训练模型 23
3.1.4 使用模型 25
3.2 模型是如何训练出来的 25
3.2.1 模型里的内容及意义 25
3.2.2 模型内部的数据流向 26
3.3 了解TensorFlow开发的基本步骤 27
3.3.1 定义输入节点的方[0法0] 27
3.3.2 实例2:通过字典类型定义输入节点 28
3.3.3 实例3:直接定义输入节点 28
3.3.4 定义“[0学0]习参数”的变量 29
3.3.5 实例4:通过字典类型定义“[0学0]习参数” 29
3.3.6 定义“运算” 29
3.3.7 [0优0]化函数,[0优0]化目标 30
3.3.8 初始化所有变量 30
3.3.9 迭代更[亲斤]参数到[0优0]解 31
3.3.10 测试模型 31
3.3.11 使用模型 31
[0第0]4章 TensorFlow编程基础 32
4.1 编程模型 32
4.1.1 了解模型的运行 [1机1] 制 33
4.1.2 实例5:编写hello world程序演示session的使用 34
4.1.3 实例6:演示with session的使用 35
4.1.4 实例7:演示注入 [1机1] 制 35
4.1.5 建立session的其他方[0法0] 36
4.1.6 实例8:使用注入 [1机1] 制获取节点 36
4.1.7 指定GPU运算 37
4.1.8 设置GPU使用资源 37
4.1.9 保存和载入模型的方[0法0]介绍 38
4.1.10 实例9:保存/载入线性回归模型 38
4.1.11 实例10:分析模型内容,演示模型的其他保存方[0法0] 40
4.1.12 检查点(Checkpoint) 41
4.1.13 实例11:为模型添加保存检查点 41
4.1.14 实例12:更简便地保存检查点 44
4.1.15 模型操作常用函数总结 45
4.1.16 TensorBoard可视化介绍 45
4.1.17 实例13:线性回归的TensorBoard可视化 46
4.2 TensorFlow基础类型定义及操作函数介绍 48
4.2.1 张量及操作 49
4.2.2 算术运算函数 55
4.2.3 矩阵相关的运算 56
4.2.4 复数操作函数 58
4.2.5 规约计算 59
4.2.6 分割 60
4.2.7 序列比较与索引提取 61
4.2.8 错误类 62
4.3 共享变量 62
4.3.1 共享变量用途 62
4.3.2 使用get-variable获取变量 63
4.3.3 实例14:演示get_variable和Variable的区别 63
4.3.4 实例15:在特定的作用域下获取变量 65
4.3.5 实例16:共享变量功能的实现 66
4.3.6 实例17:初始化共享变量的作用域 67
4.3.7 实例18:演示作用域与操作符的受限范围 68
4.4 实例19:图的基本操作 70
4.4.1 建立图 70
4.4.2 获取张量 71
4.4.3 获取节点操作 72
4.4.4 获取元素列表 73
4.4.5 获取对象 73
4.4.6 练习题 74
4.5 配置分布式TensorFlow 74
4.5.1 分布式TensorFlow的角色及原理 74
4.5.2 分布部署TensorFlow的具体方[0法0] 75
4.5.3 实例20:使用TensorFlow实现分布式部署训练 75
4.6 动态图(Eager) 81
4.7 数据集(tf.data) 82
[0第0]5章 识别图中模糊的手写数字(实例21) 83
5.1 导入图片数据集 84
5.1.1 MNIST数据集介绍 84
5.1.2 下载并安装MNIST数据集 85
5.2 分析图片的特点,定义变量 87
5.3 构建模型 87
5.3.1 定义[0学0]习参数 87
5.3.2 定义输出节点 88
5.3.3 定义反向传播的结构 88
5.4 训练模型并输出中间状态参数 89
5.5 测试模型 90
5.6 保存模型 91
5.7 读取模型 92
[0第0]2篇 深度[0学0]习基础——神经网络
[0第0]6章 单个神经元 96
6.1 神经元的拟合原理 96
6.1.1 正向传播 98
6.1.2 反向传播 98
6.2 激活函数——加入非线性因素,解决线性模型缺陷 99
6.2.1 Sigmoid函数 99
6.2.2 Tanh函数 100
6.2.3 ReLU函数 101
6.2.4 Swish函数 103
6.2.5 激活函数总结 103
6.3 softmax算[0法0]——处理分类问题 103
6.3.1 什么是softmax 104
6.3.2 softmax原理 104
6.3.3 常用的分类函数 105
6.4 损失函数——用真实值与预测值的距离来指导模型的收敛方向 105
6.4.1 损失函数介绍 105
6.4.2 TensorFlow中常见的loss函数 106
6.5 softmax算[0法0]与损失函数的综合应用 108
6.5.1 实例22:交叉熵实验 108
6.5.2 实例23:one_hot实验 109
6.5.3 实例24:sparse交叉熵的使用 110
6.5.4 实例25:计算loss值 110
6.5.5 练习题 111
6.6 梯度下降——让模型逼近小偏差 111
6.6.1 梯度下降的作用及分类 111
6.6.2 TensorFlow中的梯度下降函数 112
6.6.3 退化[0学0]习率——在训练的速度与精度之间找到平衡 113
6.6.4 实例26:退化[0学0]习率的用[0法0]举例 114
6.7 初始化[0学0]习参数 115
6.8 单个神经元的扩展——Maxout网络 116
6.8.1 Maxout介绍 116
6.8.2 实例27:用Maxout网络实现MNIST分类 117
6.9 练习题 118
[0第0]7章 多层神经网络——解决非线性问题 119
7.1 线性问题与非线性问题 119
7.1.1 实例28:用线性单分逻辑回归分析肿瘤是良性还是恶性的 119
7.1.2 实例29:用线性逻辑回归处理多分类问题 123
7.1.3 认识非线性问题 129
7.2 使用隐藏层解决非线性问题 130
7.2.1 实例30:使用带隐藏层的神经网络拟合异或操作 130
7.2.2 非线性网络的可视化及其意义 133
7.2.3 练习题 135
7.3 实例31:利用全连接网络将图片进行分类 136
7.4 全连接网络训练中的[0优0]化技巧 137
7.4.1 实例32:利用异或数据集演示过拟合问题 138
7.4.2 正则化 143
7.4.3 实例33:通过正则化改善过拟合情况 144
7.4.4 实例34:通过增[0大0]数据集改善过拟合 145
7.4.5 练习题 146
7.4.6 dropout——训练过程中,将部分神经单元暂时丢弃 146
7.4.7 实例35:为异或数据集模型添加dropout 147
7.4.8 实例36:基于退化[0学0]习率dropout技术来拟合异或数据集 149
7.4.9 全连接网络的深浅关系 150
7.5 练习题 150
[0第0]8章 卷积神经网络——解决参数太多问题 151
8.1 全连接网络的局限性 151
8.2 理解卷积神经网络 152
8.3 网络结构 153
8.3.1 网络结构描述 153
8.3.2 卷积操作 155
8.3.3 池化层 157
8.4 卷积神经网络的相关函数 158
8.4.1 卷积函数tf.nn.conv2d 158
8.4.2 padding规则介绍 159
8.4.3 实例37:卷积函数的使用 160
8.4.4 实例38:使用卷积提取图片的轮廓 165
8.4.5 池化函数tf.nn.max_pool(avg_pool) 167
8.4.6 实例39:池化函数的使用 167
8.5 使用卷积神经网络对图片分类 170
8.5.1 CIFAR介绍 171
8.5.2 下载CIFAR数据 172
8.5.3 实例40:导入并显示CIFAR数据集 173
8.5.4 实例41:显示CIFAR数据集的原始图片 174
8.5.5 cifar10_input的其他功能 176
8.5.6 在TensorFlow中使用queue 176
8.5.7 实例42:协调器的用[0法0]演示 178
8.5.8 实例43:为session中的队列加上协调器 179
8.5.9 实例44:建立一个带有全局平均池化层的卷积神经网络 180
8.5.10 练习题 183
8.6 反卷积神经网络 183
8.6.1 反卷积神经网络的应用场景 184
8.6.2 反卷积原理 184
8.6.3 实例45:演示反卷积的操作 185
8.6.4 反池化原理 188
8.6.5 实例46:演示反池化的操作 189
8.6.6 实例47:演示gradients基本用[0法0] 192
8.6.7 实例48:使用gradients对多个式子求多变量偏导 192
8.6.8 实例49:演示梯度停止的实现 193
8.7 实例50:用反卷积技术复原卷积网络各层图像 195
8.8 善用函数封装库 198
8.8.1 实例51:使用函数封装库重写CIFAR卷积网络 198
8.8.2 练习题 201
8.9 深度[0学0]习的模型训练技巧 201
8.9.1 实例52:[0优0]化卷积核技术的演示 201
8.9.2 实例53:多通道卷积技术的演示 202
8.9.3 批量归一化 204
8.9.4 实例54:为CIFAR图片分类模型添加BN 207
8.9.5 练习题 209
[0第0]9章 循环神经网络——具有记忆功能的网络 210
9.1 了解RNN的工作原理 210
9.1.1 了解人的记忆原理 210
9.1.2 RNN网络的应用[0领0]域 212
9.1.3 正向传播过程 212
9.1.4 随时间反向传播 213
9.2 简单RNN 215
9.2.1 实例55:简单循环神经网络实现——裸写一个退位减[0法0]器 215
9.2.2 实例56:使用RNN网络拟合回声信号序列 220
9.3 循环神经网络(RNN)的改进 225
9.3.1 LSTM网络介绍 225
9.3.2 窥视孔连接(Peephole) 228
9.3.3 带有映射输出的STMP 230
9.3.4 基于梯度剪辑的cell 230
9.3.5 GRU网络介绍 230
9.3.6 Bi-RNN网络介绍 231
9.3.7 基于神经网络的时序类分类CTC 232
9.4 TensorFlow实战RNN 233
9.4.1 TensorFlow中的cell类 233
9.4.2 通过cell类构建RNN 234
9.4.3 实例57:构建单层LSTM网络对MNIST数据集分类 239
9.4.4 实例58:构建单层GRU网络对MNIST数据集分类 240
9.4.5 实例59:创建动态单层RNN网络对MNIST数据集分类 240
9.4.6 实例60:静态多层LSTM对MNIST数据集分类 241
9.4.7 实例61:静态多层RNN-LSTM连接GRU对MNIST数据集分类 242
9.4.8 实例62:动态多层RNN对MNIST数据集分类 242
9.4.9 练习题 243
9.4.10 实例63:构建单层动态[0[0双0]0]向RNN对MNIST数据集分类 243
9.4.11 实例64:构建单层静态[0[0双0]0]向RNN对MNIST数据集分类 244
9.4.12 实例65:构建多层[0[0双0]0]向RNN对MNIST数据集分类 246
9.4.13 实例66:构建动态多层[0[0双0]0]向RNN对MNIST数据集分类 247
9.4.14 初始化RNN 247
9.4.15 [0优0]化RNN 248
9.4.16 实例67:在GRUCell中实现LN 249
9.4.17 CTC网络的loss——ctc_loss 251
9.4.18 CTCdecoder 254
9.5 实例68:利用BiRNN实现语音识别 255
9.5.1 语音识别背景 255
9.5.2 获取并整理样本 256
9.5.3 训练模型 265
9.5.4 练习题 272
9.6 实例69:利用RNN训练语言模型 273
9.6.1 准备样本 273
9.6.2 构建模型 275
9.7 语言模型的系统[0学0]习 279
9.7.1 统计语言模型 279
9.7.2 词向量 279
9.7.3 word2vec 281
9.7.4 实例70:用CBOW模型训练自己的word2vec 283
9.7.5 实例71:使用指定侯选采样本训练word2vec 293
9.7.6 练习题 296
9.8 处理Seq2Seq任务 296
9.8.1 Seq2Seq任务介绍 296
9.8.2 Encoder-Decoder框架 297
9.8.3 实例72:使用basic_rnn_seq2seq拟合曲线 298
9.8.4 实例73:预测[0当0]天的股票价格 306
9.8.5 基于注意力的Seq2Seq 310
9.8.6 实例74:基于Seq2Seq注意力模型实现中英文 [1机1] 器翻译 313
9.9 实例75:制作一个简单的聊天 [1机1] 器人 339
9.9.1 构建项目框架 340
9.9.2 准备聊天样本 340
9.9.3 预处理样本 340
9.9.4 训练样本 341
9.9.5 测试模型 342
9.10 时间序列的高级接口TFTS 344
[0第0]10章 自编码网络——能够自[0学0]习样本特征的网络 346
10.1 自编码网络介绍及应用 346
10.2 简单的自编码网络 347
10.3 自编码网络的代码实现 347
10.3.1 实例76:提取图片的特征,并利用特征还原图片 347
10.3.2 线性解码器 351
10.3.3 实例77:提取图片的二维特征,并利用二维特征还原图片 351
10.3.4 实例78:实现卷积网络的自编码 356
10.3.5 练习题 358
10.4 去噪自编码 359
10.5 去噪自编码网络的代码实现 359
10.5.1 实例79:使用去噪自编码网络提取MNIST特征 359
10.5.2 练习题 363
10.6 栈式自编码 364
10.6.1 栈式自编码介绍 364
10.6.2 栈式自编码在深度[0学0]习中的意义 365
10.7 深度[0学0]习中自编码的常用方[0法0] 366
10.7.1 代替和级联 366
10.7.2 自编码的应用场景 366
10.8 去噪自编码与栈式自编码的综合实现 366
10.8.1 实例80:实现去噪自编码 367
10.8.2 实例81:添加模型存储支持分布训练 375
10.8.3 小心分布训练中的“坑” 376
10.8.4 练习题 377
10.9 变分自编码 377
10.9.1 什么是变分自编码 377
10.9.2 实例82:使用变分自编码模拟生成MNIST数据 377
10.9.3 练习题 384
10.10 条件变分自编码 385
10.10.1 什么是条件变分自编码 385
10.10.2 实例83:使用标签指导变分自编码网络生成MNIST数据 385
[0第0]3篇 深度[0学0]习进阶
[0第0]11章 深度神经网络 392
11.1 深度神经网络介绍 392
11.1.1 深度神经网络起源 392
11.1.2 经典模型的特点介绍 393
11.2 GoogLeNet模型介绍 394
11.2.1 MLP卷积层 394
11.2.2 全局均值池化 395
11.2.3 Inception 原始模型 396
11.2.4 Inception v1模型 396
11.2.5 Inception v2模型 397
11.2.6 Inception v3模型 397
11.2.7 Inception v4模型 399
11.3 残差网络(ResNet) 399
11.3.1 残差网络结构 399
11.3.2 残差网络原理 400
11.4 Inception-ResNet-v2结构 400
11.5 TensorFlow中的图片分类模型库——slim 400
11.5.1 获取models中的slim模块代码 401
11.5.2 models中的Slim目录结构 401
11.5.3 slim中的数据集处理 403
11.5.4 实例84:利用slim读取TFRecord中的数据 405
11.5.5 在slim中训练模型 407
11.6 使用slim中的深度网络模型进行图像的识别与检测 410
11.6.1 实例85:调用Inception_ResNet_v2模型进行图像识别 410
11.6.2 实例86:调用VGG模型进行图像检测 413
11.7 实物检测模型库——Object Detection API 417
11.7.1 准备工作 418
11.7.2 实例87:调用Object Detection API进行实物检测 421
11.8 实物检测[0领0]域的相关模型 425
11.8.1 RCNN基于卷积神经网络特征的区域方[0法0] 426
11.8.2 SPP-Net:基于空间金字塔池化的[0优0]化RCNN方[0法0] 426
11.8.3 Fast-R-CNN快速的RCNN模型 426
11.8.4 YOLO:能够一次性预测多个位置和类别的模型 427
11.8.5 SSD:比YOLO更快更准的模型 428
11.8.6 YOLO2:YOLO的升级版模型 428
11.9 [1机1] 器自己设计的模型(NASNet) 428
[0第0]12章 对抗神经网络(GAN) 430
12.1 GAN的理论[0知0]识 430
12.1.1 生成式模型的应用 431
12.1.2 GAN的训练方[0法0] 431
12.2 DCGAN——基于深度卷积的GAN 432
12.3 InfoGAN和ACGAN:指定类别生成模拟样本的GAN 432
12.3.1 InfoGAN:带有隐含信息的GAN 432
12.3.2 AC-GAN:带有辅助分类信息的GAN 433
12.3.3 实例88:构建InfoGAN生成MNIST模拟数据 434
12.3.4 练习题 440
12.4 AEGAN:基于自编码器的GAN 441
12.4.1 AEGAN原理及用途介绍 441
12.4.2 实例89:使用AEGAN对MNIST数据集压缩特征及重建 442
12.5 WGAN-GP:更容易训练的GAN 447
12.5.1 WGAN:基于推土 [1机1] 距离原理的GAN 448
12.5.2 WGAN-GP:带梯度惩罚项的WGAN 449
12.5.3 实例90:构建WGAN-GP生成MNIST数据集 451
12.5.4 练习题 455
12.6 LSGAN(小乘二GAN):具有WGAN 同样效果的GAN 455
12.6.1 LSGAN介绍 455
12.6.2 实例91:构建LSGAN生成MNIST模拟数据 456
12.7 GAN-cls:具有匹配感[0知0]的判别器 457
12.7.1 GAN-cls的具体实现 458
12.7.2 实例92:使用GAN-cls技术实现生成标签匹配的模拟数据 458
12.8 SRGAN——适用于[0超0]分辨率重建的GAN 461
12.8.1 [0超0]分辨率技术 461
12.8.2 实例93:ESPCN实现MNIST数据集的[0超0]分辨率重建 463
12.8.3 实例94:ESPCN实现flowers数据集的[0超0]分辨率重建 466
12.8.4 实例95:使用残差网络的ESPCN 472
12.8.5 SRGAN的原理 477
12.8.6 实例96:使用SRGAN实现flowers数据集的[0超0]分辨率修复 477
12.9 GAN网络的高级接口TFGAN 485
12.10 总结 486
《scikit-learn [1机1] 器[0学0]习:常用算[0法0]原理及编程实战》
前言
[0第0]1章 [1机1] 器[0学0]习介绍 1
1.1 什么是 [1机1] 器[0学0]习 1
1.2 [1机1] 器[0学0]习有什么用 2
1.3 [1机1] 器[0学0]习的分类 3
1.4 [1机1] 器[0学0]习应用开发的典型步骤 4
1.4.1 数据采集和标记 4
1.4.2 数据清洗 5
1.4.3 特征选择 5
1.4.4 模型选择 5
1.4.5 模型训练和测试 5
1.4.6 模型性能[0评0]估和[0优0]化 5
1.4.7 模型使用 6
1.5 复习题 6
[0第0]2章 Python [1机1] 器[0学0]习软件包 7
2.1 开发环境搭建 7
2.2 IPython简介 8
2.2.1 IPython基础 8
2.2.2 IPython图形界面 13
2.3 Numpy简介 15
2.3.1 Numpy数组 15
2.3.2 Numpy运算 19
2.4 Pandas简介 32
2.4.1 基本数据结构 32
2.4.2 数据排序 34
2.4.3 数据访问 34
2.4.4 时间序列 36
2.4.5 数据可视化 36
2.4.6 文件读写 38
2.5 Matplotlib简介 38
2.5.1 图形样式 38
2.5.2 图形对象 40
2.5.3 画图操作 46
2.6 scikit-learn简介 51
2.6.1 scikit-learn示例 51
2.6.2 scikit-learn一般性原理和通用规则 55
2.7 复习题 56
2.8 拓展[0学0]习资源 57
[0第0]3章 [1机1] 器[0学0]习理论基础 58
3.1 过拟合和欠拟合 58
3.2 成本函数 59
3.3 模型准确性 60
3.3.1 模型性能的不同表述方式 61
3.3.2 交叉验证数据集 61
3.4 [0学0]习曲线 62
3.4.1 实例:画出[0学0]习曲线 62
3.4.2 过拟合和欠拟合的特征 65
3.5 算[0法0]模型性能[0优0]化 65
3.6 查准率和召回率 66
3.7 F1 Score 67
3.8 复习题 67
[0第0]4章 k-近邻算[0法0] 69
4.1 算[0法0]原理 69
4.1.1 算[0法0][0优0]缺点 69
4.1.2 算[0法0]参数 70
4.1.3 算[0法0]的变种 70
4.2 示例:使用k-近邻算[0法0]进行分类 70
4.3 示例:使用k-近邻算[0法0]进行回归拟合 72
4.4 实例:糖尿病预测 74
4.4.1 加载数据 74
4.4.2 模型比较 75
4.4.3 模型训练及分析 77
4.4.4 特征选择及数据可视化 78
4.5 拓展阅读 80
4.5.1 如何提高k-近邻算[0法0]的运算效率 80
4.5.2 相关性测试 80
4.6 复习题 81
[0第0]5章 线性回归算[0法0] 83
5.1 算[0法0]原理 83
5.1.1 预测函数 83
5.1.2 成本函数 84
5.1.3 梯度下降算[0法0] 84
5.2 多变量线性回归算[0法0] 86
5.2.1 预测函数 86
5.2.2 成本函数 87
5.2.3 梯度下降算[0法0] 88
5.3 模型[0优0]化 89
5.3.1 多项式与线性回归 89
5.3.2 数据归一化 89
5.4 示例:使用线性回归算[0法0]拟合正弦函数 90
5.5 示例:测算房价 92
5.5.1 输入特征 92
5.5.2 模型训练 93
5.5.3 模型[0优0]化 94
5.5.4 [0学0]习曲线 95
5.6 拓展阅读 96
5.6.1 梯度下降迭代公式推导 96
5.6.2 随 [1机1] 梯度下降算[0法0] 96
5.6.3 标准方程 97
5.7 复习题 97
[0第0]6章 逻辑回归算[0法0] 98
6.1 算[0法0]原理 98
6.1.1 预测函数 98
6.1.2 判定边界 99
6.1.3 成本函数 100
6.1.4 梯度下降算[0法0] 102
6.2 多元分类 102
6.3 正则化 103
6.3.1 线性回归模型正则化 103
6.3.2 逻辑回归模型正则化 104
6.4 算[0法0]参数 104
6.5 实例:乳腺癌检测 106
6.5.1 数据采集及特征提取 106
6.5.2 模型训练 108
6.5.3 模型[0优0]化 110
6.5.4 [0学0]习曲线 111
6.6 拓展阅读 113
6.7 复习题 114
[0第0]7章 决策树 115
7.1 算[0法0]原理 115
7.1.1 信息增益 116
7.1.2 决策树的创建 119
7.1.3 剪枝算[0法0] 120
7.2 算[0法0]参数 121
7.3 实例:预测泰坦尼克号幸存者 122
7.3.1 数据分析 122
7.3.2 模型训练 123
7.3.3 [0优0]化模型参数 124
7.3.4 模型参数选择工具包 127
7.4 拓展阅读 130
7.4.1 熵和条件熵 130
7.4.2 决策树的构建算[0法0] 130
7.5 集合算[0法0] 131
7.5.1 自助聚合算[0法0]Bagging 131
7.5.2 正向激励算[0法0]boosting 131
7.5.3 随 [1机1] 森林 132
7.5.4 ExtraTrees算[0法0] 133
7.6 复习题 133
[0第0]8章 支持向量 [1机1] 134
8.1 算[0法0]原理 134
8.1.1 [0大0]间距分类算[0法0] 134
8.1.2 松弛系数 136
8.2 核函数 138
8.2.1 简单的核函数 138
8.2.2 相似性函数 140
8.2.3 常用的核函数 141
8.2.4 核函数的对比 142
8.3 scikit-learn里的SVM 144
8.4 实例:乳腺癌检测 146
8.5 复习题 149
[0第0]9章 朴素贝叶斯算[0法0] 151
9.1 算[0法0]原理 151
9.1.1 贝叶斯定理 151
9.1.2 朴素贝叶斯分类[0法0] 152
9.2 一个简单的例子 153
9.3 概率分布 154
9.3.1 概率统计的基本概念 154
9.3.2 多项式分布 155
9.3.3 高斯分布 158
9.4 连续值的处理 159
9.5 实例:文档分类 160
9.5.1 获取数据集 160
9.5.2 文档的数[0学0]表达 161
9.5.3 模型训练 163
9.5.4 模型[0评0]价 165
9.6 复习题 167
[0第0]10章 PCA算[0法0] 168
10.1 算[0法0]原理 168
10.1.1 数据归一化和缩放 169
10.1.2 计算协方差矩阵的特征向量 169
10.1.3 数据降维和恢复 170
10.2 PCA 算[0法0]示例 171
10.2.1 使用Numpy模拟PCA计算过程 171
10.2.2 使用sklearn进行PCA降维运算 173
10.2.3 PCA的物理含义 174
10.3 PCA 的数据还原率及应用 175
10.3.1 数据还原率 175
10.3.2 加快监督 [1机1] 器[0学0]习算[0法0]的运算速度 176
10.4 实例:人脸识别 176
10.4.1 加载数据集 176
10.4.2 一次失败的尝试 179
10.4.3 使用PCA来处理数据集 182
10.4.4 终结果 185
10.5 拓展阅读 189
10.6 复习题 189
[0第0]11章 k-均值算[0法0] 190
11.1 算[0法0]原理 190
11.1.1 k-均值算[0法0]成本函数 191
11.1.2 随 [1机1] 初始化聚类中心点 191
11.1.3 选择聚类的个数 192
11.2 scikit-learn里的k-均值算[0法0] 192
11.3 使用k-均值对文档进行聚类分析 195
11.3.1 准备数据集 195
11.3.2 加载数据集 196
11.3.3 文本聚类分析 197
11.4 聚类算[0法0]性能[0评0]估 200
11.4.1 Adjust Rand Index 200
11.4.2 齐次性和完整性 201
11.4.3 轮廓系数 203
11.5 复习题 204
后记 205
 编辑推荐
《深度[0学0]习之TensorFlow:入门、原理与进阶实战》
本书通过96个案例,全面讲解了深度[0学0]习神经网络原理和TensorFlow的使用方[0法0]。全书共分为3篇,[0第0]1篇深度[0学0]习与TensorFlow基础,包括快速了解人工智能与TensorFlow、搭建开发环境、TensorFlow基本开发步骤、TensorFlow编程基础、识别图中模糊的手写数字等内容;[0第0]2篇深度[0学0]习基础——神经网络,介绍了神经网络的基础模型,包括单个神经元、多层神经网络、卷积神经网络、循环神经网络、自编码网络等内容;[0第0]3篇深度[0学0]习进阶,是对基础网络模型的灵活运用与自由组合,是对前面[0知0]识的综合及拔高,包括深度神经网络和对抗神经网络两章内容。本书特别适合TensorFlow深度[0学0]习的初[0学0]者和进阶读者阅读,也适合社[0会0]培训班和各[0大0]院校对深度[0学0]习有兴趣的[0学0]生阅读。

Python数据科学实战指南:从数据清洗到模型部署 本书是一本面向初学者和进阶者的Python数据科学实战指南,旨在系统性地介绍数据科学的核心概念、工具与技术。我们将从数据获取、清洗、探索性数据分析(EDA),逐步深入到特征工程、模型构建、评估以及最终的模型部署。全程贯穿Python及其核心科学计算库,如NumPy、Pandas、Matplotlib、Seaborn、Scikit-learn等,通过大量真实案例和代码示例,带领读者一步步掌握数据科学项目的全流程。 第一部分:数据处理与探索 数据获取与预处理: 数据来源多样化: 学习如何从不同的数据源获取数据,包括CSV文件、Excel表格、数据库(SQLAlchemy)、API接口(如Requests库)以及网页抓取(BeautifulSoup、Scrapy)。 数据清洗的关键步骤: 详细讲解数据清洗的常用技巧,如处理缺失值(删除、填充均值/中位数/众数、插值法)、处理重复值、异常值检测与处理(箱线图、Z-score、IQR)、数据类型转换(数值型、类别型、日期型)、字符串处理(正则表达式、文本清洗)。 数据格式标准化: 掌握如何统一不同来源的数据格式,确保数据的一致性与可用性。例如,日期格式统一、单位统一等。 探索性数据分析(EDA): 数据概览与描述性统计: 使用Pandas进行数据概览,如`.head()`, `.info()`, `.describe()`,理解数据的基本结构、字段类型、缺失比例和分布。计算均值、方差、标准差、分位数等描述性统计量,为后续分析奠定基础。 可视化探索: 学习利用Matplotlib和Seaborn创建各种图表,深入理解数据分布与特征间关系。 单变量分析: 直方图(Histogram)、核密度估计图(KDE Plot)、箱线图(Box Plot)用于分析数值型数据的分布和离散程度。计数图(Count Plot)、饼图(Pie Chart)用于分析类别型数据的频率。 双变量分析: 散点图(Scatter Plot)用于探索两个数值型变量之间的关系。折线图(Line Plot)常用于时间序列数据。条形图(Bar Plot)用于比较不同类别的数据。 多变量分析: 热力图(Heatmap)用于可视化相关矩阵,揭示变量间的线性相关性。配对图(Pair Plot)可以一次性展示多对变量之间的散点图和单变量分布图,快速发现潜在关系。 相关性分析: 计算Pearson、Spearman等相关系数,理解变量间的线性或单调关系强度,为特征选择提供依据。 第二部分:特征工程与模型构建 特征工程: 特征选择: 过滤法(Filter Methods): 基于统计指标(如方差、相关系数、卡方检验、互信息)对特征进行排序和筛选,不依赖具体模型。 包裹法(Wrapper Methods): 将特征选择过程作为模型训练的一部分,通过模型性能来评估特征子集的好坏,如递归特征消除(RFE)。 嵌入法(Embedded Methods): 特征选择过程嵌入在模型训练过程中,如Lasso回归的L1正则化。 特征提取: 主成分分析(PCA): 降维技术,通过线性变换将原始高维特征映射到低维空间,保留大部分原始数据方差。 独立成分分析(ICA): 分离混合信号,适用于非高斯分布的数据。 t-SNE、UMAP: 非线性降维技术,常用于高维数据的可视化。 特征构建: 多项式特征: 创建原特征的组合项(如x1^2, x1x2),捕捉非线性关系。 交互特征: 将多个特征组合起来,创造新的信息。 时间序列特征: 提取日期相关的特征(年、月、日、星期、季度、节假日),或基于时间窗口计算统计量(均值、最大值、最小值、变化率)。 类别特征处理: 独热编码(One-Hot Encoding): 将类别变量转换为二进制向量,避免引入序数关系。 标签编码(Label Encoding): 将类别变量映射为整数,适用于序数特征或某些模型(如树模型)。 目标编码(Target Encoding): 使用目标变量的统计信息来编码类别特征,能捕捉目标与类别之间的关联。 文本特征处理: 文本清洗: 去除标点符号、数字、停用词,转换为小写。 词袋模型(Bag-of-Words, BoW): 将文本表示为词语频率向量。 TF-IDF(Term Frequency-Inverse Document Frequency): 衡量词语在文档中的重要性。 词嵌入(Word Embeddings): 如Word2Vec, GloVe,将词语映射到低维向量空间,捕捉语义信息。 模型选择与训练: 监督学习: 回归问题: 线性回归、多项式回归、岭回归、Lasso回归、弹性网络、支持向量回归(SVR)、决策树回归、随机森林回归、梯度提升回归(如XGBoost, LightGBM)。 分类问题: 逻辑回归、K近邻(KNN)、支持向量机(SVM)、朴素贝叶斯、决策树分类、随机森林分类、梯度提升分类。 无监督学习: 聚类: K-Means、DBSCAN、层次聚类。 降维: PCA、LDA。 模型训练流程: 数据集划分(训练集、验证集、测试集)、模型实例化、参数训练(`.fit()`)、预测(`.predict()`, `.predict_proba()`)。 超参数调优: 网格搜索(Grid Search): 穷举搜索指定参数范围内的所有组合。 随机搜索(Random Search): 在指定分布中随机采样参数组合。 交叉验证(Cross-Validation): K折交叉验证,用于更稳健的模型评估和超参数选择。 第三部分:模型评估与部署 模型评估: 回归评估指标: 平均绝对误差(MAE): 预测值与真实值之间绝对误差的平均值。 均方误差(MSE): 预测值与真实值之间误差平方的平均值。 均方根误差(RMSE): MSE的平方根,与原始数据具有相同的单位。 决定系数(R-squared): 模型解释的方差比例,值越接近1越好。 分类评估指标: 准确率(Accuracy): 正确预测的样本数占总样本数的比例。 精确率(Precision): 预测为正类的样本中,真实为正类的比例。 召回率(Recall/Sensitivity): 真实为正类的样本中,被模型预测为正类的比例。 F1-Score: 精确率和召回率的调和平均数。 ROC曲线与AUC值: 绘制不同阈值下的真正例率(TPR)与假正例率(FPR)的关系曲线,AUC值越接近1越好。 混淆矩阵(Confusion Matrix): 直观展示模型在各个类别上的预测情况。 模型评估的误区与注意事项: 过拟合、欠拟合的诊断,如何选择合适的评估指标。 模型部署与应用: 模型持久化: 使用`joblib`或`pickle`库将训练好的模型保存到文件,以便后续加载和复用。 构建API服务: 使用Flask或FastAPI框架,将模型封装成RESTful API,使其能够被其他应用程序调用。 模型集成(Ensemble Learning): Bagging(如随机森林): 并行训练多个模型,然后对结果进行平均(回归)或投票(分类)。 Boosting(如AdaBoost, Gradient Boosting, XGBoost, LightGBM): 顺序训练模型,每个模型都试图纠正前一个模型的错误。 Stacking: 使用一个元模型(meta-model)来学习如何组合基模型的预测结果。 实时预测与批量预测: 了解不同应用场景下的预测方式。 模型监控与迭代: 部署后的模型可能面临数据漂移等问题,需要进行监控和定期更新。 贯穿全书的实践原则: 代码质量: 强调编写清晰、可读、可维护的代码,包括良好的注释、变量命名和函数设计。 版本控制: 鼓励使用Git等版本控制工具管理代码和项目。 问题解决能力: 引导读者分析数据科学项目的挑战,培养独立解决问题的能力。 持续学习: 数据科学领域发展迅速,本书鼓励读者保持好奇心,持续学习新的算法和工具。 本书旨在提供一个扎实的数据科学基础,让读者能够自信地处理真实世界的数据问题,从数据中提取有价值的见解,并构建有效的预测模型。无论您是希望开启数据科学之旅的学生,还是希望提升技能的从业者,本书都将是您宝贵的参考。

用户评价

评分

这本书的“进阶实战”部分绝对是点睛之笔,将前两部分的知识融会贯通,带领读者挑战更复杂的深度学习任务。我特别印象深刻的是关于卷积神经网络(CNN)和循环神经网络(RNN)的章节。作者不仅详细讲解了这些网络结构的设计理念和数学原理,更提供了非常贴近实际的案例。比如,在图像识别的部分,我们不仅学会了如何构建经典的CNN模型,还学习了如何利用预训练模型进行迁移学习,这对于处理小型数据集的项目来说简直是福音。而在自然语言处理(NLP)方面,RNN及其变种如LSTM和GRU的讲解,以及它们在文本生成、情感分析等任务中的应用,都让我大开眼界。让我感到惊喜的是,书中还涉及到了一些更前沿的主题,比如注意力机制、Transformer模型等,这让我看到了深度学习领域的最新发展趋势。每一个实战案例都包含了完整的代码实现,并且对每一个步骤都进行了详细的解释,让我们不仅知道“怎么做”,更明白“为什么这样做”。通过这些实战,我不仅巩固了理论知识,更掌握了解决实际问题的能力,真正体会到了深度学习在各个领域的强大威力。

评分

作为一个有着一定编程基础,但对深度学习知之甚少的读者,我发现《TensorFlow:入门、原理与进阶实战》这本书简直是为我量身定做的。它并没有一开始就抛出复杂的数学公式,而是从一个非常友好的角度切入,讲解了TensorFlow的基本环境搭建和一些核心概念,比如张量(Tensor)和操作(Operation)。这些概念的引入非常自然,而且紧随其后的例子也让我能够立刻上手,看到代码运行的结果。随着阅读的深入,书中对神经网络的原理讲解也越来越到位。从单层感知机到多层感知机,再到更复杂的CNN和RNN,作者循序渐进地展示了这些模型是如何构建的,以及它们在不同任务中的应用。我尤其喜欢书中关于如何调试模型的部分,分享了一些实用的技巧,让我能够更有效地找出代码中的错误,并优化模型的性能。这本书的结构设计非常合理,既有理论的深度,又不乏实践的指导,让我在学习过程中既能理解“为什么”,又能掌握“怎么做”。

评分

我一直对人工智能和机器学习很感兴趣,也尝试过阅读一些相关的书籍,但很多都让我觉得要么过于理论化,要么过于浅显。直到我读了《TensorFlow:入门、原理与进阶实战》这本书,才真正体会到深度学习的魅力。这本书的叙事方式非常吸引人,作者用一种非常流畅和易于理解的语言,将TensorFlow的各个方面娓娓道来。它不仅讲解了如何使用TensorFlow来构建和训练模型,更深入地剖析了模型背后的原理。例如,在讲解卷积神经网络时,作者不仅介绍了卷积层、池化层等基本组件,还详细解释了它们是如何提取图像特征的。书中还包含了大量的代码示例,而且这些代码都经过了精心设计,能够清晰地展示每一个概念和技术的应用。我特别喜欢书中关于模型优化的部分,提供了很多实用的技巧,比如学习率衰减、正则化等,这对于提升模型的性能至关重要。总而言之,这本书是一本兼具理论深度和实践指导的优秀教材,让我对深度学习有了更全面、更深入的认识。

评分

这本《TensorFlow:入门、原理与进阶实战》真是一场机器学习的探索之旅!从零开始,作者循序渐进地将TensorFlow的核心概念一一展现在我们面前。第一部分“入门”部分,就像一个经验丰富的向导,带领我这个初学者一步步熟悉TensorFlow的安装、基础语法以及如何构建简单的神经网络。我尤其喜欢它对各种API的讲解,清晰明了,并配有大量的代码示例,让我能够立刻动手实践,加深理解。从“Hello World”级别的线性回归,到稍微复杂一点的图像分类,每一步都充满了成就感。书中并没有止步于表面,而是深入剖析了TensorFlow的工作原理,比如计算图的构建、张量的概念、变量的生命周期等等。这些“原理”部分虽然烧脑,但却是真正理解TensorFlow精髓的关键。我能够清晰地看到数据是如何在计算图中流动,每一个操作是如何被执行的,这对于日后调试和优化模型至关重要。作者并没有把这些原理讲得枯燥乏味,而是巧妙地将其融入到实际应用中,让我们在解决问题的过程中学会理论。总的来说,这本书的“入门”和“原理”部分为我打下了坚实的基础,让我不再畏惧深度学习的复杂性,而是对其充满了好奇和探索的动力。

评分

《TensorFlow:入门、原理与进阶实战》这本书最大的亮点在于它对概念的深度和广度的把握。它不像一些入门书籍那样流于表面,只提供简单的API调用,也不像一些理论书籍那样晦涩难懂,让人望而却步。这本书就像一个桥梁,稳稳地连接了理论与实践。它深入浅出地解释了TensorFlow底层的运作机制,例如计算图的动态执行与静态执行的对比,以及如何利用Session来管理计算的执行。对于变量的管理、占位符的使用、损失函数和优化器的选择,都有详尽的论述。我特别欣赏作者在讲解梯度下降时,不仅给出了数学公式,还结合TensorFlow的自动求导机制进行了解释,让我对反向传播有了更深刻的理解。在进阶部分,关于模型评估、超参数调优、模型部署等内容的介绍,也极大地拓宽了我的视野。它让我认识到,构建一个高性能的深度学习模型,不仅仅是写几行代码那么简单,还需要细致的工程实践。这本书帮助我从一个“代码使用者”转变为一个“理解者”,甚至是一个“创造者”。

相关图书

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 book.coffeedeals.club All Rights Reserved. 静流书站 版权所有