Python深度学习入门与实战
定价:¥55.80
                            								作者: 程源
出版时间:2024-07
出版社:电子工业出版社
- 电子工业出版社
 - 9787121470875
 - 1-2
 - 525143
 - 66255107-6
 - 平塑
 - 16开
 - 2024-07
 - 288
 - 电子与信息大类
 - 程序设计
 - 高职
 
                            内容简介
                        
                        
                                本教材从编程的角度“解剖”了深度学习的底层技术,通过介绍使用Python库实现经典的深度学习框架的过程,逐步向读者呈现深度学习的本质;用典型示例深入剖析深度学习在计算机视觉和自然语言处理方面的应用,同时介绍这些示例的TensorFlow实现,并在配套代码中给出相应的飞桨实现,以便读者深刻理解深度学习框架的技术细节;通过目标检测、中文文本分类、超越文本分类和视频动作识别等,为读者呈现最前沿的深度学习技术。__eol__本教材可作为高职院校人工智能相关专业学生的教材,也可作为相关培训机构的培训资料。对于广大的Python深度学习爱好者来说,本教材也是很好的参考用书。                            
                            
                        
                            目录
                        
                        
                                第一部分  入门篇__eol__1  深度学习概述	2__eol__1.1 让机器学会学习	2__eol__1.1.1  什么是人工智能	2__eol__1.1.2  从数据中学习	3__eol__1.1.3  数据表示	3__eol__1.2 深度学习之“深度”	4__eol__1.2.1  深度神经网络	5__eol__1.2.2  神经网络的学习	7__eol__1.3 深度学习的数据表示	9__eol__1.3.1  标量、向量、矩阵与张量	9__eol__1.3.2  现实世界中的张量数据	11__eol__1.4 为什么要用深度学习	14__eol__1.4.1  深度学习有何不同	14__eol__1.4.2  深度学习的大众化	15__eol__本章小结	15__eol__2  神经网络入门	16__eol__2.1 神经元	16__eol__2.1.1  人工神经元	16__eol__2.1.2  激活函数	18__eol__2.2 多层神经网络	19__eol__2.2.1  分类问题与独热编码	19__eol__2.2.2  MNIST数据集	20__eol__2.2.3  神经网络	22__eol__2.2.4  神经网络的输出	23__eol__2.2.5  softmax函数	24__eol__2.3 神经网络的前向传播	26__eol__2.3.1  各层间数据传递	27__eol__2.3.2  多个样本情况	28__eol__2.3.3  识别精度	29__eol__2.4 监督学习与损失函数	30__eol__2.4.1  监督学习	31__eol__2.4.2  损失函数	32__eol__2.5 梯度下降法	36__eol__2.5.1  梯度下降	36__eol__2.5.2  梯度的实现	38__eol__2.5.3  梯度下降法的实现	39__eol__2.6 学习算法的实现	41__eol__2.6.1  两层神经网络模型	42__eol__2.6.2  神经网络的训练	44__eol__2.6.3  基于测试数据的评价	45__eol__2.7 练习题	47__eol__本章小结	47__eol__3  神经网络的反向传播	48__eol__3.1 反向传播的基础知识	48__eol__3.2 反向传播的实现	49__eol__3.2.1  ReLU层	49__eol__3.2.2  sigmoid层	51__eol__3.2.3  Linear层	51__eol__3.2.4  softmax-with-Loss层	53__eol__3.3 学习算法的实现	55__eol__3.3.1  构建多层神经网络模型	55__eol__3.3.2  随机梯度下降法	60__eol__3.4 训练与预测	61__eol__3.4.1  构建训练器	62__eol__3.4.2  训练与推理	66__eol__3.5 练习题	71__eol__本章小结	72__eol__4  改善神经网络	73__eol__4.1 优化算法	73__eol__4.1.1  动量法	75__eol__4.1.2  AdaGrad	76__eol__4.1.3  RMSprop	77__eol__4.1.4  Adam	79__eol__4.1.5  更新方法比较	80__eol__4.1.6  改进训练器	82__eol__4.2 数值稳定性和模型初始化	82__eol__4.2.1  梯度消失和梯度爆炸	82__eol__4.2.2  抑制梯度异常初始化	84__eol__4.2.3  权重初始值的比较	85__eol__4.3 正则化与规范化	87__eol__4.3.1  过拟合与欠拟合	87__eol__4.3.2  权值衰减	89__eol__4.3.3  Dropout正则化	89__eol__4.3.4  批量规范化	90__eol__4.3.5  改进模型	93__eol__4.4 练习题	95__eol__本章小结	96__eol__5  卷积神经网络	97__eol__5.1 从全连接到卷积	97__eol__5.1.1  卷积运算	97__eol__5.1.2  填充	101__eol__5.1.3  步幅	102__eol__5.1.4  三维数据的卷积运算	103__eol__5.2 卷积层	105__eol__5.2.1  卷积计算	105__eol__5.2.2  四维数组	107__eol__5.2.3  基于im2col函数的展开	107__eol__5.2.4  卷积层的实现	108__eol__5.3 汇聚层	111__eol__5.3.1  汇聚运算	112__eol__5.3.2  汇聚层的实现	113__eol__5.4 LeNet网络	114__eol__5.4.1  构建模型	115__eol__5.4.2  模型训练	120__eol__5.4.3  预测	122__eol__5.5 卷积神经网络的可视化	124__eol__5.6 练习题	126__eol__本章小结	127__eol__6  深度学习实践	128__eol__6.1 深度学习的工作流程	128__eol__6.1.1  定义任务	128__eol__6.1.2  开发模型	130__eol__6.1.3  部署模型	133__eol__6.2 训练一个图像分类模型	133__eol__6.2.1  创建图像数据集	134__eol__6.2.2  数据预处理	135__eol__6.2.3  构建并训练模型	139__eol__6.3 文本分类	143__eol__6.3.1  准备文本数据	143__eol__6.3.2  构建网络	149__eol__6.4 练习题	151__eol__本章小结	151__eol__第二部分  实战篇__eol__7  卷积神经网络进阶	154__eol__7.1 深度学习框架	154__eol__7.1.1  神经网络剖析	154__eol__7.1.2  实现AlexNet网络	156__eol__7.1.3  数据预处理	158__eol__7.1.4  网络训练	159__eol__7.2 数据增强	160__eol__7.2.1  使用数据增强	160__eol__7.2.2  训练网络	162__eol__7.3 使用块的网络(VGG)	163__eol__7.3.1  VGG块	163__eol__7.3.2  VGG概述	164__eol__7.3.3  训练模型	166__eol__7.4 残差网络	169__eol__7.4.1  残差块	169__eol__7.4.2  ResNet	171__eol__7.4.3  训练模型	173__eol__7.5 微调模型	174__eol__7.6 练习题	179__eol__本章小结	180__eol__8  目标检测	181__eol__8.1 目标检测的基本概念	181__eol__8.1.1  目标定位	181__eol__8.1.2  正样本制作	182__eol__8.1.3  交并比	186__eol__8.1.4  先验框	187__eol__8.1.5  非极大值抑制	189__eol__8.2 YOLOv3	191__eol__8.2.1  基本框架	191__eol__8.2.2  产生候选区域	193__eol__8.2.3  特征提取	194__eol__8.2.4  解码预测结果	199__eol__8.2.5  损失函数	203__eol__8.3 训练自己的YOLOv3模型	208__eol__8.3.1  数据集的准备	208__eol__8.3.2  数据集的处理	208__eol__8.3.3  开始网络训练	210__eol__8.3.4  训练结果预测	211__eol__8.4 练习题	212__eol__本章小结	212__eol__9  中文文本分类	213__eol__9.1 词嵌入	213__eol__9.1.1  什么是词嵌入	214__eol__9.1.2  利用词嵌入	215__eol__9.2 循环神经网络	217__eol__9.2.1  循环神经网络概述	218__eol__9.2.2  理解LSTM层	219__eol__9.2.3  基于LSTM的中文文本分类	221__eol__9.3 注意力机制	222__eol__9.3.1  注意力提示	223__eol__9.3.2  自注意力	224__eol__9.3.3  多头注意力	226__eol__9.4 Transformer	228__eol__9.5 位置编码	230__eol__9.6 练习题	232__eol__本章小结	233__eol__10  超越文本分类	234__eol__10.1 序列到序列的学习	234__eol__10.1.1  编码器-解码器架构	234__eol__10.1.2  Transformer解码器	236__eol__10.2 机器翻译	239__eol__10.2.1  准备语料	239__eol__10.2.2  端到端Transformer	243__eol__10.3 文本生成	245__eol__10.3.1  如何生成序列数据	245__eol__10.3.2  采样策略的重要性	246__eol__10.3.3  用keras                            
                            
                        
                        
                        
                    