《深度学习500问》正式出版!GitHub星标数超4.2万的火爆之作 | 赠书( 四 )


2.10.7交叉验证的主要作用52
2.10.8理解K折交叉验证53
2.10.9理解混淆矩阵53
2.10.10理解查准率与查全率53
2.10.11理解ROC与AUC54
2.10.12如何绘制ROC曲线55
2.10.13如何计算TPR和FPR56
2.10.14如何计算AUC58
2.10.15直观理解AUC58
2.10.16ROC评估分类器60
2.10.17代价敏感错误率与代价曲线60
2.10.18比较检验方法61
2.11决策树61
2.11.1决策树的基本原理62
2.11.2决策树的生成过程62
2.11.3决策树学习基本算法步骤62
2.11.4决策树算法的优缺点63
2.11.5决策树和熵的联系63
2.11.6熵的概念及定义63
2.11.7理解信息增益64
2.11.8决策树中熵、条件熵和信息增益的联系64
2.11.9决策树算法中剪枝的作用及策略65
2.12支持向量机(SVM)65
2.12.1什么是SVM65
2.12.2SVM能解决的问题66
2.12.3核函数特点及其作用67
2.12.4SVM为什么引入对偶问题67
2.12.5如何理解SVM中的对偶问题67
2.12.6常见的核函数69
2.12.7SVM的主要特点69
2.12.8SVM的主要缺点70
2.12.9逻辑回归与SVM的异同70
2.13贝叶斯分类器72
2.13.1贝叶斯分类器的基本原理72
2.13.2朴素贝叶斯分类器72
2.13.3举例理解朴素贝叶斯分类器73
2.13.4半朴素贝叶斯分类器75
2.13.5极大似然估计和贝叶斯估计的联系与区别75
2.13.6极大似然估计原理76
2.13.7图解极大似然估计76
2.14EM算法77
2.14.1EM算法的基本思想77
2.14.2EM算法推导77
2.14.3图解EM算法78
2.14.4EM算法流程79
2.15降维和聚类79
2.15.1图解为什么会产生维数灾难79
2.15.2怎样避免维数灾难83
2.15.3聚类和降维83
2.15.4聚类算法优劣的衡量标准84
2.15.5聚类和分类85
2.15.6聚类算法的性能比较85
2.15.74种常用聚类方法比较85
第3章深度学习基础89
3.1基本概念89
3.1.1神经网络的类型89
3.1.2神经网络的常用模型结构92
3.1.3深度学习和机器学习的区别与联系93
3.1.4为什么使用深层表示93
3.1.5深度学习架构分类94
3.1.6如何选择深度学习开发平台94
3.2神经网络计算95
3.2.1前向传播和反向传播95
3.2.2如何计算神经网络的输出96
3.2.3如何计算卷积神经网络输出值97
3.2.4如何计算池化层输出值100
3.2.5反向传播实例101
3.2.6神经网络更“深”的意义104
3.3激活函数104
3.3.1为什么需要激活函数104
3.3.2为什么激活函数需要非线性函数105
3.3.3常见的激活函数及其图像105
3.3.4常见激活函数的导数计算107
3.3.5激活函数有哪些性质108
3.3.6如何选择激活函数108
3.3.7为什么tanh收敛速度比sigmoid快109
3.3.8Relu激活函数的优点109
3.3.9理解Relu激活函数的稀疏激活性109
3.3.10什么时候可以用线性激活函数109
3.3.11softmax函数的定义及作用110
3.3.12softmax函数如何应用于多分类110
3.4BATCHSIZE112
3.4.1为什么需要BatchSize112
3.4.2如何选择BatchSize值112
3.4.3调节BatchSize对训练效果的影响113
3.4.4在合理范围内增大BatchSize的好处113
3.4.5盲目增大BatchSize的坏处114
3.5归一化114
3.5.1理解归一化含义114
3.5.2归一化和标准化的联系与区别114
3.5.3为什么要归一化或标准化115
3.5.4图解为什么要归一化115
3.5.5为什么归一化能提高求最优解速度115
3.5.6归一化有哪些类型116
3.5.7局部响应归一化作用116
3.5.8局部响应归一化原理117
3.5.9什么是批归一化118
3.5.10批归一化的优点118
3.5.11批归一化算法流程118
3.5.12批归一化和组归一化比较119
3.5.13权重归一化和批归一化比较119
3.5.14批归一化适用范围120
3.5.15BN、LN、IN和GN的对比120
3.6参数初始化121
3.6.1参数初始化应满足的条件121
3.6.2常用的几种初始化方式121
3.6.3全0初始化带来的问题121
3.6.4全都初始化为同样的值122
3.6.5初始化为小的随机数123
3.6.6用校准方差123
3.7预训练与微调123
3.7.1什么是预训练和微调123
3.7.2预训练和微调的作用124
3.7.3预训练模型的复用124
3.7.4预训练和迁移学习125
3.7.5微调时网络参数是否更新125
3.7.6微调模型的三种状态125
3.7.7为什么深层神经网络难以训练125
3.8超参数127
3.8.1超参数有哪些127
3.8.2参数和模型的关系127
3.8.3参数和超参数的区别127
3.8.4如何寻找超参数的最优值128
3.8.5超参数搜索的一般过程128
3.9学习率129
3.9.1学习率的作用129
3.9.2学习率衰减的常用参数129
3.9.3常用的学习率衰减方法129
3.10正则化133
3.10.1为什么要正则化133