注册 登录 进入教材巡展 进入在线书城
#

出版时间:2021-02

出版社:电子工业出版社

以下为《现代自然语言生成》的配套数字资源,这些资源在您购买图书后将免费附送给您:
  • 电子工业出版社
  • 9787121402494
  • 1-3
  • 403066
  • 47245510-4
  • 平塑勒
  • 16开
  • 2021-02
  • 292
  • 272
  • 工学
  • 计算机科学与技术
  • 计算机科学与技术
  • 本科 研究生(硕士、EMBA、MBA、MPA、博士)
目录
第1 章自然语言生成的研究背景. . . . . . . 1 1.1 自然语言生成的背景概述. . . . . . . 1 1.2 基本定义与研究范畴. . . . . . . . . . . .2 1.3 自然语言生成与自然语言理解. . .3 1.4 传统的模块化生成框架. . . . . . . . . 4 1.5 端到端的自然语言生成框架. . . . . 7 1.6 典型的自然语言生成任务. . . . . . . 9 1.7 自然语言生成的可控性. . . . . . . . 12 1.8 本书结构. . . . . . . . . . . . . . . . . . . . . . 14 第2 章从统计语言模型到神经网络语言建模. . . . . . . . . . . . . . . . . . . . . . 15 2.1 统计语言模型. . . . . . . . . . . . . . . . . 15 2.1.1 基本原理. . . . . . . . . . . . . . . . . . 15 2.1.2 平滑技术. . . . . . . . . . . . . . . . . . 17 2.1.3 语言模型评价. . . . . . . . . . . . . . 19 2.1.4 统计语言模型的缺点. . . . . . . . 20 2.2 神经网络语言模型. . . . . . . . . . . . . 21 2.2.1 前馈神经网络语言模型. . . . . . 21 2.2.2 基于循环神经网络的神经语言模型. . . . . . . . . . . . . . 24 2.2.3 基于Transformer 的神经语言模型. . . . . . . . . . . . . . 24 2.3 静态词向量模型. . . . . . . . . . . . . . . 26 2.3.1 分布假设与分布式表示. . . . . . 26 2.3.2 词向量模型CBOW 和Skip-gram. . . . . . . . . . . . . . . . .27 2.3.3 词向量模型训练优化:负采样. . . . . . . . . . . . . . . . . . . .30 2.3.4 词向量模型训练优化:层次化softmax . . . . . . . . . . . . 31 2.3.5 静态词向量的缺陷. . . . . . . . . . 32 2.4 语境化语言表示模型. . . . . . . . . . 33 2.4.1 ELMo . . . . . . . . . . . . . . . . . . . . 34 2.4.2 BERT . . . . . . . . . . . . . . . . . . . . 36 2.4.3 XLNet. . . . . . . . . . . . . . . . . . . .38 2.5 本章小结. . . . . . . . . . . . . . . . . . . . . . 39 第3 章基于RNN 的语言生成模型. . .41 3.1 RNN 的基本原理. . . . . . . . . . . . . . 41 3.2 RNN 的训练算法. . . . . . . . . . . . . . 42 3.3 长短期记忆神经网络与门控循环单元. . . . . . . . . . . . . . . . . 45 3.4 RNN 的架构设计. . . . . . . . . . . . . . 47 3.4.1 多层RNN . . . . . . . . . . . . . . . . 47 3.4.2 双向RNN . . . . . . . . . . . . . . . . 48 3.5 基于RNN 的语言模型. . . . . . . . 48 3.5.1 模型结构. . . . . . . . . . . . . . . . . . 49 3.5.2 主要问题. . . . . . . . . . . . . . . . . . 50 3.5.3 模型改进. . . . . . . . . . . . . . . . . . 51 3.6 序列到序列模型. . . . . . . . . . . . . . . 52 3.6.1 基本原理. . . . . . . . . . . . . . . . . . 52 3.6.2 模型结构. . . . . . . . . . . . . . . . . . 53 3.6.3 注意力机制. . . . . . . . . . . . . . . . 54 3.7 解码器的解码方法. . . . . . . . . . . . . 57 3.7.1 基于搜索的解码方法. . . . . . . . 59 3.7.2 基于采样的解码方法. . . . . . . . 61 3.8 序列到序列模型存在的问题. . . .64 3.9 本章小结. . . . . . . . . . . . . . . . . . . . . . 65 第4 章基于Transformer 的语言生成模型. . . . . . . . . . . . . . . . . 66 4.1 Transformer 模型的基本原理. . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.1.1 多头注意力机制. . . . . . . . . . . . 66 4.1.2 Transformer 基本单元. . . . . . 69 4.2 基于Transformer 的编码器—解码器结构. . . . . . . . . . 71 4.2.1 基本原理. . . . . . . . . . . . . . . . . . 71 4.2.2 位置编码模块. . . . . . . . . . . . . . 73 4.2.3 Transformer 编码器. . . . . . . . 74 4.2.4 Transformer 解码器. . . . . . . . 74 4.3 Transformer 模型与RNN 模型的比较. . . . . . . . . . . . . . 77 4.4 Transformer 模型问题与解决方案. . . . . . . . . . . . . . . . . . . . . . 79 4.4.1 长距离依赖问题. . . . . . . . . . . . 79 4.4.2 运算复杂度问题. . . . . . . . . . . . 81 4.5 基于Transformer 的预训练语言生成模型. . . . . . . . . . . . . . . . . . . . . . 85 4.5.1 GPT 模型. . . . . . . . . . . . . . . . .86 4.5.2 GPT-2 和GPT-3 . . . . . . . . . . 88 4.5.3 GPT 模型的扩展. . . . . . . . . . . 90 4.6 本章小结. . . . . . . . . . . . . . . . . . . . . . 92 第5 章基于变分自编码器的语言生成模型. . . . . . . . . . . . . . . . . 93 5.1 自编码器. . . . . . . . . . . . . . . . . . . . . . 93 5.2 变分自编码器. . . . . . . . . . . . . . . . . 94 5.3 条件变分自编码器. . . . . . . . . . . . . 98 5.4 解码器设计. . . . . . . . . . . . . . . . . . 100 5.5 变分自编码器在语言生成 任务上的应用实例. . . . . . . . . . . .102 5.5.1 含类别约束的条件变分自编码器模型. . . . . . . . . . . . . 102 5.5.2 含隐变量序列的条件变分自编码器模型. . . . . . . . . . . . . 104 5.6 主要问题及解决方案. . . . . . . . . 107__eo