图书介绍

图解深度学习与神经网络 从张量到TensorFlow实现PDF|Epub|txt|kindle电子书版本网盘下载

图解深度学习与神经网络 从张量到TensorFlow实现
  • 张平编著 著
  • 出版社: 北京:电子工业出版社
  • ISBN:9787121347450
  • 出版时间:2018
  • 标注页数:326页
  • 文件大小:23MB
  • 文件页数:338页
  • 主题词:学习系统-研究;人工神经网络-研究;人工智能-算法-研究

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

图解深度学习与神经网络 从张量到TensorFlow实现PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

1 深度学习及TensorFlow简介1

1.1 深度学习1

1.2 TensorFlow简介及安装2

2 基本的数据结构及运算6

2.1 张量6

2.1.1 张量的定义6

2.1.2 Tensor与Numpy的ndarray转换9

2.1.3 张量的尺寸10

2.1.4 图像转换为张量13

2.2 随机数14

2.2.1 均匀(平均)分布随机数14

2.2.2 正态(高斯)分布随机数15

2.3 单个张量的运算17

2.3.1 改变张量的数据类型17

2.3.2 访问张量中某一个区域的值19

2.3.3 转置22

2.3.4 改变形状26

2.3.5 归约运算:求和、平均值、最大(小)值29

2.3.6 最大(小)值的位置索引34

2.4 多个张量之间的运算35

2.4.1 基本运算:加、减、乘、除35

2.4.2 乘法41

2.4.3 张量的连接42

2.4.4 张量的堆叠44

2.4.5 张量的对比48

2.5 占位符49

2.6 Variable对象50

3 梯度及梯度下降法52

3.1 梯度52

3.2 导数计算的链式法则53

3.2.1 多个函数和的导数54

3.2.2 复合函数的导数54

3.2.3 单变量函数的驻点、极值点、鞍点55

3.2.4 多变量函数的驻点、极值点、鞍点57

3.2.5 函数的泰勒级数展开60

3.2.6 梯度下降法63

3.3 梯度下降法73

3.3.1 Adagrad法73

3.3.2 Momentum法75

3.3.3 NAG法77

3.3.4 RMSprop法78

3.3.5 具备动量的RMSprop法80

3.3.6 Adadelta法81

3.3.7 Adam法82

3.3.8 Batch梯度下降84

3.3.9 随机梯度下降85

3.3.10 mini-Batch梯度下降86

3.4 参考文献86

4 回归分析88

4.1 线性回归分析88

4.1.1 一元线性回归88

4.1.2 保存和加载回归模型91

4.1.3 多元线性回归95

4.2 非线性回归分析99

5 全连接神经网络102

5.1 基本概念102

5.2 计算步骤104

5.3 神经网络的矩阵表达107

5.4 激活函数112

5.4.1 sigmoid激活函数112

5.4.2 tanh激活函数113

5.4.3 ReLU激活函数114

5.4.4 leaky relu激活函数115

5.4.5 elu激活函数118

5.4.6 crelu激活函数119

5.4.7 selu激活函数120

5.4.8 relu6 激活函数121

5.4.9 softplus激活函数121

5.4.10 softsign激活函数122

5.5 参考文献123

6 神经网络处理分类问题125

6.1 TFRecord文件125

6.1.1 将ndarray写入TFRecord文件125

6.1.2 从TFRecord解析数据128

6.2 建立分类问题的数学模型134

6.2.1 数据类别(标签)134

6.2.2 图像与TFRecrder135

6.2.3 建立模型140

6.3 损失函数与训练模型143

6.3.1 sigmoid损失函数143

6.3.2 softmax损失函数144

6.3.3 训练和评估模型148

6.4 全连接神经网络的梯度反向传播151

6.4.1 数学原理及示例151

6.4.2 梯度消失166

7 一维离散卷积168

7.1 一维离散卷积的计算原理168

7.1.1 full卷积169

7.1.2 valid卷积170

7.1.3 same卷积170

7.1.4 full、same、valid卷积的关系171

7.2 一维卷积定理174

7.2.1 一维离散傅里叶变换174

7.2.2 卷积定理177

7.3 具备深度的一维离散卷积182

7.3.1 具备深度的张量与卷积核的卷积182

7.3.2 具备深度的张量分别与多个卷积核的卷积183

7.3.3 多个具备深度的张量分别与多个卷积核的卷积185

8 二维离散卷积187

8.1 二维离散卷积的计算原理187

8.1.1 full卷积187

8.1.2 same卷积189

8.1.3 valid卷积191

8.1.4 full、 same、 valid卷积的关系192

8.1.5 卷积结果的输出尺寸193

8.2 离散卷积的性质194

8.2.1 可分离的卷积核194

8.2.2 full和same卷积的性质195

8.2.3 快速计算卷积197

8.3 二维卷积定理198

8.3.1 二维离散傅里叶变换198

8.3.2 二维与一维傅里叶变换的关系201

8.3.3 卷积定理203

8.3.4 利用卷积定理快速计算卷积203

8.4 多深度的离散卷积205

8.4.1 基本的多深度卷积205

8.4.2 1个张量与多个卷积核的卷积207

8.4.3 多个张量分别与多个卷积核的卷积208

8.4.4 在每一深度上分别卷积211

8.4.5 单个张量与多个卷积核在深度上分别卷积212

8.4.6 分离卷积214

9 池化操作218

9.1 same池化218

9.1.1 same最大值池化218

9.1.2 多深度张量的same池化221

9.1.3 多个三维张量的same最大值池化223

9.1.4 same平均值池化224

9.2 valid池化226

9.2.1 多深度张量的vaild池化228

9.2.2 多个三维张量的valid池化229

10 卷积神经网络231

10.1 浅层卷积神经网络231

10.2 LeNet238

10.3 AlexNet244

10.3.1 AlexNet网络结构详解244

10.3.2 dropout及其梯度下降247

10.4 VGGNet256

10.5 GoogleNet264

10.5.1 网中网结构264

10.5.2 Batch Normalization269

10.5.3 BN与卷积运算的关系273

10.5.4 指数移动平均275

10.5.5 带有BN操作的卷积神经网络276

10.6 ResNet281

10.7 参考文献284

11 卷积的梯度反向传播286

11.1 valid卷积的梯度286

11.1.1 已知卷积核,对未知张量求导286

11.1.2 已知输入张量,对未知卷积核求导290

11.2 same卷积的梯度294

11.2.1 已知卷积核,对输入张量求导294

11.2.2 已知输入张量,对未知卷积核求导298

12 池化操作的梯度303

12.1 平均值池化的梯度303

12.2 最大值池化的梯度306

13 BN的梯度反向传播311

13.1 BN操作与卷积的关系311

13.2 示例详解314

14 TensorFlow搭建神经网络的主要函数324

热门推荐