思维导图备注

神经网络与PyTorch实战
首页 收藏书籍 阅读记录
  • 书签 我的书签
  • 添加书签 添加书签 移除书签 移除书签

9.2.3 门控循环单元

浏览 8 扫码
  • 小字体
  • 中字体
  • 大字体
2022-01-25 03:18:39
请 登录 再阅读
上一篇:
下一篇:
  • 书签
  • 添加书签 移除书签
  • 前言
  • 第1章 初识神经网络
    • 1.1 例说神经网络
      • 1.1.2 人的神经系统
      • 1.1.3 人工神经元
      • 1.1.4 人工神经网络
      • 1.1.5 神经网络的设计和权重的学习
    • 1.2 神经网络与人工智能等概念的关系
      • 1.2.1 人工智能和数据挖掘
      • 1.2.2 机器学习和模式识别
      • 1.2.3 人工神经网络和深度学习
      • 1.2.4 各概念之间的联系
    • 1.3 本章小结
  • 第2章 初识PyTorch
    • 2.1 人工神经网络库PyTorch
      • 2.1.2 编写PyTorch程序
    • 2.2 例说PyTorch
      • 2.2.1 迷你AlphaGo介绍
      • 2.2.2 迷你AlphaGo的完整实现
    • 2.3 PyTorch学习路线
    • 2.4 本章小结
  • 第3章 使用PyTorch进行科学计算
    • 3.1 初识张量
      • 3.1.2 PyTorch里的张量
    • 3.2 构造torch.Tensor类实例
      • 3.2.1 构造含有特定数据的张量
      • 3.2.2 构造特定大小的张量
      • 3.2.3 构造等比数列和等差数列张量
      • 3.2.4 构造随机张量
    • 3.3 组织张量的元素
      • 3.3.2 选取部分张量元素
      • 3.3.3 张量的扩展和拼接
    • 3.4 张量的科学计算
      • 3.4.2 逐元素运算
      • 3.4.3 张量点积和Einstein求和
      • 3.4.4 统计函数
      • 3.4.5 比较和逻辑运算
    • 3.5 例子:用蒙特卡洛算法计算圆周率
      • 3.5.2 蒙特卡洛算法求解圆周率的实现
    • 3.6 本章小结
  • 第4章 求解优化问题
    • 4.1 梯度及其计算
      • 4.1.2 梯度的性质和计算
      • 4.1.3 使用PyTorch计算梯度数值
    • 4.2 优化算法与torch.optim包
      • 4.2.2 梯度下降算法的缺陷和解决方案
      • 4.2.3 各种优化算法
    • 4.3 例子:Himmelblau函数的优化
      • 4.3.2 求解Himmelblau的最小值
      • 4.3.3 求解Himmelblau的局部极大值
  • 4.4 本章小结
    • 5.1 一元线性回归
      • 5.1.1 最小二乘法
      • 5.1.2 正规方程法
    • 5.2 多元线性回归
    • 5.3 其他损失情况下的线性回归
      • 5.3.1 MSE损失、损失和平滑损失
      • 5.3.2 torch.nn子包与损失类
      • 5.3.3 使用优化器求解线性回归
      • 5.3.4 数据的归一化
    • 5.4 例子:世界人口的线性回归
      • 5.4.2 对世界人口做最小二乘法线性回归
      • 5.4.3 用优化算法实现最小二乘回归
    • 5.5 本章小结
  • 第6章 线性判决与逻辑回归
    • 6.1 线性判决与互熵损失
      • 6.1.2 线性判决
      • 6.1.3 极大似然和互熵损失
    • 6.2 逻辑回归
      • 6.2.1 expit()函数和logit()函数
      • 6.2.2 用优化器实现逻辑回归
      • 6.2.3 Newton-Raphson方法
    • 6.3 多项逻辑回归
    • 6.4 例子:数字图像的识别
      • 6.4.2 利用多项逻辑回归识别MNIST数据
    • 6.5 例子:股票成交量预测
      • 6.5.2 成交量变化方向预测
    • 6.6 本章小结
  • 第7章 全连接神经网络
    • 7.1 前馈神经网络
      • 7.1.2 使用torch.nn.Sequential类搭建前馈神经网络
      • 7.1.3 权重的确定与反向传播
    • 7.2 全连接层和全连接神经网络
    • 7.3 非线性激活
      • 7.3.1 逐元素激活
      • 7.3.2 非逐元素激活
    • 7.4 网络结构的选择
      • 7.4.1 欠拟合和过拟合
      • 7.4.2 训练集、验证集和测试集
    • 7.5 例子:基于全连接网络的非线性回归
      • 7.5.1 数据的生成和数据集分割
      • 7.5.2 确定网络结构并训练网络
      • 7.5.3 测试性能
    • 7.6 本章小结
  • 第8章 卷积神经网络
    • 8.1 卷积层
      • 8.1.2 一维张量的互相关
      • 8.1.3 一维张量的转置卷积
      • 8.1.4 高维张量的互相关和转置卷积
      • 8.1.5 torch.nn包里的卷积层
    • 8.2 池化层、视觉层和补全层
      • 8.2.1 张量的池化
      • 8.2.2 张量的反池化
      • 8.2.3 torch.nn包里的池化层
      • 8.2.4 张量的上采样
      • 8.2.5 torch.nn包里的视觉层
      • 8.2.6 张量的补全运算
      • 8.2.7 torch.nn包里的补全层
    • 8.3 例子:MNIST图片分类的改进
      • 8.3.1 搭建卷积神经网络
      • 8.3.2 卷积神经网络的训练和测试
    • 8.4 本章小结
  • 第9章 循环神经网络
    • 9.1.1 单向单层循环结构
    • 9.1.2 多层循环结构
    • 9.2 循环神经网络中的循环单元
      • 9.2.1 基本循环神经元
      • 9.2.2 长短期记忆单元
      • 9.2.3 门控循环单元
    • 9.1.3 双向循环结构
    • 9.3 循环神经网络的实现
      • 9.3.1 torch.nn子包中的循环单元类
      • 9.3.2 torch.nn子包中的循环神经网络类
    • 9.4 例子:人均GDP的预测
      • 9.4.2 搭建LSTM预测模型
      • 9.4.3 网络的训练和使用
    • 9.5 本章小结
  • 第10章 生成对抗网络
    • 10.1.2 生成对抗网络的结构
    • 10.2 用生成对抗网络生成图像
      • 10.2.1 深度卷积生成对抗网络
      • 10.2.2 规范化层
      • 10.2.3 网络权重值的初始化
    • 10.3 例子:CIFAR-10图像的生成
      • 10.3.2 搭建生成网络和鉴别网络
      • 10.3.3 网络的训练和使用
    • 10.4 本章小结
  • 第11章 强化学习
    • 11.1.2 强化学习的分类
    • 11.2 Markov决策过程及其算法
      • 11.2.2 最优策略的性质和求解
      • 11.2.3 时序差分更新算法
    • 11.3 例子:车杆游戏的游戏AI开发
      • 11.3.2 游戏AI和深度Q网络的设计
      • 11.3.3 深度Q网络的训练
      • 11.3.4 游戏AI的使用
    • 11.4 本章小结
  • 附录A 开发环境的安装和使用
  • 附录B Python编程基础
暂无相关搜索结果!
    展开/收起文章目录

    二维码

    手机扫一扫,轻松掌上学

    《神经网络与PyTorch实战》电子书下载

    请下载您需要的格式的电子书,随时随地,享受学习的乐趣!
    EPUB 电子书

    书签列表

      阅读记录

      阅读进度: 0.00% ( 0/0 ) 重置阅读进度