注册 登录 进入教材巡展 进入在线书城
#
  • #

出版时间:2023-11

出版社:电子工业出版社

以下为《深度卷积神经网络原理与实践》的配套数字资源,这些资源在您购买图书后将免费附送给您:
试读
  • 电子工业出版社
  • 9787121396632
  • 1-6
  • 349704
  • 48245500-3
  • 平塑
  • 16开
  • 2023-11
  • 436
  • 272
  • 工学
  • 计算机科学与技术
  • 计算机科学与技术
  • 本科 研究生(硕士、EMBA、MBA、MPA、博士)
作者简介
周浦城,博士,副教授,先后主持或参加国家863、自然科学基金等课题20余项,公开发表论文80余篇,其中SCI检索3篇、EI检索45篇。
查看全部
目录
目录 第1章 机器学习基础 1 1.1 机器学习概述 1 1.1.1 机器学习的概念 1 1.1.2 机器学习的任务 2 1.1.3 机器学习的发展简史 3 1.1.4 机器学习的典型应用 5 1.2 机器学习策略 6 1.2.1 有监督学习 6 1.2.2 无监督学习 6 1.2.3 半监督学习 6 1.2.4 强化学习 7 1.3 模型评估与选择 7 1.3.1 归纳偏好 7 1.3.2 数据集划分 8 1.3.3 性能度量 9 1.3.4 过拟合和欠拟合 10 1.4 神经网络与深度学习 11 1.4.1 生物神经元 11 1.4.2 人工神经网络 12 1.4.3 深度学习 14 1.5 本章小结 16 第2章 卷积神经网络基本原理 17 2.1 卷积神经网络概述 17 2.1.1 卷积神经网络的发展 17 2.1.2 卷积神经网络的基本原理与 组成 18 2.2 卷积层 19 2.2.1 基本卷积运算 19 2.2.2 卷积神经网络中的卷积运算 21 2.2.3 卷积的作用 22 2.2.4 卷积层及参数 25 2.2.5 特殊卷积 26 2.3 激活层 29 2.3.1 激活函数简述 29 2.3.2 典型的激活函数 30 2.4 池化层 34 2.4.1 池化操作 34 2.4.2 感受野 35 2.5 全连接层 36 2.6 目标函数 37 2.6.1 常用的损失函数 38 2.6.2 正则化项 39 2.7 卷积神经网络的反向传播 40 2.7.1 全连接层的反向传播 40 2.7.2 池化层的反向传播 41 2.7.3 卷积层的反向传播 42 2.7.4 反向传播实例 43 2.8 本章小结 45 第3章 典型卷积神经网络结构 46 3.1 LeNet 46 3.1.1 LeNet网络结构 46 3.1.2 LeNet主要特点 49 3.2 AlexNet 49 3.2.1 AlexNet网络结构 49 3.2.2 AlexNet主要特点 51 3.3 VGGNet 53 3.3.1 VGGNet网络结构 53 3.3.2 VGGNet主要特点 55 3.4 GoogLeNet 55 3.4.1 Inception v1与Inception v2 56 3.4.2 Inception v3 59 3.4.3 Inception v4 60 3.5 ResNet 61 3.5.1 残差网络的动机 61 3.5.2 ResNet网络结构 62 3.6 其他网络结构 64 3.6.1 DenseNet 64 3.6.2 SPPNet 64 3.6.3 SENet 66 3.6.4 MobileNet 66 3.7 本章小结 67 第4章 Python编程基础 68 4.1 Python语言简介 68 4.1.1 Python的发展简史 68 4.1.2 Python的主要特点 68 4.1.3 Python的主要应用领域 69 4.2 Python编程环境搭建 70 4.2.1 Windows下的安装 70 4.2.2 Linux下的安装 72 4.3 Python程序设计 73 4.3.1 编程规范 73 4.3.2 变量与数据类型 73 4.3.3 运算符与表达式 77 4.3.4 结构化程序设计 79 4.3.5 函数与模块 81 4.3.6 面向对象程序设计 84 4.4 Python基础工具库 89 4.4.1 NumPy 89 4.4.2 Pandas 92 4.4.3 Matplotlib 94 4.5 本章小结 95 第5章 PyTorch基础 96 5.1 常见的深度学习框架简介 96 5.1.1 Caffe 96 5.1.2 TensorFlow 97 5.1.3 PyTorch 97 5.1.4 其他框架 98 5.2 PyTorch的下载与安装 98 5.2.1 Linux下的安装 98 5.2.2 Windows下的安装 100 5.3 PyTorch中的Tensor 101 5.3.1 Tensor的数据类型 101 5.3.2 Tensor的基本操作 102 5.3.3 Tensor的基本运算 104 5.3.4 Tensor的数据结构 107 5.4 自动求导 108 5.4.1 计算图 108 5.4.2 自动求导机制 109 5.5 模型搭建和参数优化 111 5.5.1 神经网络工具箱 111 5.5.2 常用的神经网络层 113 5.5.3 前馈神经网络搭建 116 5.5.4 优化器 118 5.6 PyTorch入门实战 119 5.6.1 手写数字识别 119 5.6.2 CIFAR-10数据分类 122 5.7 本章小结 124 第6章 数据集与数据处理 125 6.1 典型数据集及标注 125 6.1.1 典型数据集 125 6.1.2 数据标注 129 6.2 数据预处理 132 6.2.1 数据清洗 132 6.2.2 数据采样 133 6.2.3 数据标准化 133 6.2.4 数据集划分 134 6.3 数据增广 135 6.3.1 几何变换 135 6.3.2 颜色变换 139 6.3.3 图像降质 140 6.4 PyTorch数据集处理实例 142 6.4.1 相关模块简介 142 6.4.2 PyTorch自带数据集的使用 143 6.4.3 Dataset类的继承 146 6.4.4 一般数据集处理 152 6.5 本章小结 156 第7章 卷积神经网络的训练 157 7.1 网络超参数 157 7.1.1 输入图像大小 157 7.1.2 卷积层超参数 158 7.1.3 池化层超参数 158 7.2 网络的训练 158 7.2.1 参数初始化 158 7.2.2 网络优化算法与策略 159 7.2.3 批量规一化 167 7.2.4 学习率的设定 169 7.2.5 训练数据置乱 170 7.3 图像分类实例 170 7.3.1 网络结构超参数比较 170 7.3.2 不同优化算法比较 180 7.4 迁移学习与网络微调 181 7.4.1 迁移AlexNet到猫狗数据集 实例 181 7.4.2 迁移VGG-19到瓜子数据集 实例 186 7.5 本章小结 189 第8章 图像去噪 190 8.1 图像去噪基础知识 190 8.1.1 噪声模型 190 8.1.2 传统图像去噪方法 192 8.1.3 去噪算法设计与评价 193 8.2 基于去噪自编码器的图像去噪 194 8.2.1 自编码器简介 194 8.2.2 MNIST数据集实验 195 8.2.3 Waterloo数据集实验 203 8.3 基于残差学习的图像去噪 207 8.3