尚硅谷Java培训

PyTorch深度学习

视频介绍

深度学习是实现强人工智能的技术途径之一,依赖海量数据的驱动和庞大的算力支持,可以精准完成很多非常复杂的任务,比如:物体检测、语音识别、语言翻译等。基于深度学习实现的计算机视觉、自然语言处理,已经成为当前人工智能发展的核心引擎,深度学习正在成为一种通用的工具,颠覆和重塑几乎所有的行业。

尚硅谷AI大模型之深度学习视频教程,是机器学习的后续课程,也是NLP的前置课程,内容分为神经网络基本原理、深度学习技巧、深度学习框架PyTorch和特殊结构网络四大部分。教程深入剖析了深度学习的底层原理,介绍了业界主流框架PyTorch的使用,通过大量应用案例和代码练习进行讲解,带你从零开始手动搭建深度神经网络。

教程前置知识:数学基础,讲解中涉及一些数学原理和公式推导;编程基础,需要熟练掌握Python语言;机器学习知识,深度学习课程是机器学习课程的延伸和深入,需要首先了解机器学习的基本概念和原理。
 

视频目录 选集

  • 001_课程简介
  • 002_深度学习_概述
  • 003_神经网络_基本概念和结构
  • 004_神经网络_感知机和激活函数
  • 005_激活函数_阶跃、Sigmoid和Tanh
  • 006_激活函数_ReLU
  • 007_激活函数_Softmax
  • 008_其它激活函数
  • 009_简单神经网络_信号传递
  • 010_简单神经网络_代码实现
  • 011_神经网络案例_手写数字识别_整体思路
  • 012_神经网络案例_手写数字识别_具体实现
  • 013_神经网络案例_手写数字识别_小批量计算
  • 014_损失函数_MSE
  • 015_损失函数_交叉熵误差
  • 016_损失函数_分类和回归任务常见损失函数
  • 017_数值微分_求导
  • 018_数值微分_计算切线
  • 019_数值微分_偏导数和梯度
  • 020_数值微分_计算梯度
  • 021_定义神经网络类
  • 022_神经网络的梯度计算
  • 023_梯度下降法_原理和代码实现
  • 024_梯度下降法案例_求最小值
  • 025_梯度下降法_超参数的影响
  • 026_梯度下降法_训练相关概念
  • 027_梯度下降法_SGD基本原理
  • 028_梯度下降法_SGD案例_神经网络类实现
  • 029_梯度下降法_SGD案例_加载数据和定义超参数
  • 030_梯度下降法_SGD案例_模型训练和测试
  • 031_反向传播_计算图和反向求导
  • 032_反向传播_链式法则
  • 033_反向传播_加法和乘法节点
  • 034_反向传播_激活函数层_ReLU
  • 035_反向传播_激活函数层_Sigmoid
  • 036_反向传播_仿射层Affine
  • 037_反向传播_输出层_基本介绍
  • 038_反向传播_输出层_原理推导
  • 039_反向传播_输出层_代码实现
  • 040_综合应用案例_手写数字识别_定义网络类
  • 041_综合应用案例_手写数字识别_模型训练和测试
  • 042_深度神经网络
  • 043_梯度消失和梯度爆炸
  • 044_学习优化方法_SGD
  • 045_学习优化方法_动量法
  • 046_学习优化方法_学习率衰减
  • 047_学习优化方法_AdaGrad
  • 048_学习优化方法_RMSProp
  • 049_学习优化方法_Adam
  • 050_学习优化方法_综合对比
  • 051_学习优化方法_超参数的调节
  • 052_参数初始化_常数初始化及其问题
  • 053_参数初始化_Xavier和He初始化
  • 054_正则化_Batch Norm
  • 055_正则化_权值衰减和Dropout
  • 056_PyTorch_基本介绍
  • 057_PyTorch_安装流程及CUDA介绍
  • 058_PyTorch_安装完成验证
  • 059_PyTorch_张量创建_按内容
  • 060_PyTorch_张量创建_按形状
  • 061_PyTorch_张量创建_按类型
  • 062_PyTorch_张量创建_指定区间
  • 063_PyTorch_张量创建_按数值填充
  • 064_PyTorch_张量创建_随机生成
  • 065_PyTorch_随机排列和随机数种子
  • 066_PyTorch_张量转换_元素数据类型转换
  • 067_PyTorch_张量转换_张量和ndarray的转换
  • 068_PyTorch_张量转换_张量和标量的转换
  • 069_PyTorch_张量数值计算_基本运算
  • 070_PyTorch_张量数值计算_哈达玛积和矩阵乘法
  • 071_PyTorch_节省内存
  • 072_PyTorch_张量统计运算函数
  • 073_PyTorch_张量索引操作_简单索引和范围索引
  • 074_PyTorch_张量索引操作_列表索引
  • 075_PyTorch_张量索引操作_布尔索引
  • 076_PyTorch_张量形状操作_交换维度
  • 077_PyTorch_张量形状操作_调整形状
  • 078_PyTorch_张量形状操作_增减维度
  • 079_PyTorch_张量拼接和堆叠
  • 080_PyTorch_自动微分模块_计算梯度基本流程
  • 081_PyTorch_自动微分模块_梯度计算原理
  • 082_PyTorch_自动微分模块_分离张量
  • 083_PyTorch_自动微分模块_detach对梯度计算的影响
  • 084_PyTorch_自动微分模块_detach与data的区别
  • 085_PyTorch_线性回归案例_模块和流程介绍
  • 086_PyTorch_线性回归案例_代码实现
  • 087_PyTorch深度学习_激活函数_Sigmoid
  • 088_PyTorch深度学习_激活函数_Tanh
  • 089_PyTorch深度学习_激活函数_ReLU
  • 090_PyTorch深度学习_激活函数_Softmax
  • 091_PyTorch深度学习_全连接层和参数初始化
  • 092_PyTorch深度学习_Dropout层
  • 093_PyTorch深度学习_神经网络搭建
  • 094_PyTorch深度学习_查看模型参数
  • 095_PyTorch深度学习_查看模型结构和参数数量
  • 096_PyTorch深度学习_device设置
  • 097_PyTorch深度学习_使用Sequential创建神经网络
  • 098_PyTorch深度学习_损失函数_BCE
  • 099_PyTorch深度学习_损失函数_CrossEntropyLoss
  • 100_PyTorch深度学习_损失函数_回归任务损失函数
  • 101_PyTorch深度学习_损失函数_综合测试
  • 102_PyTorch深度学习_动量法
  • 103_PyTorch深度学习_学习率衰减_等间隔
  • 104_PyTorch深度学习_学习率衰减_指定间隔和指数衰减
  • 105_PyTorch深度学习_AdaGrad和RMSProp
  • 106_PyTorch深度学习_Adam
  • 107_房价预测案例_数据分析和导入模块
  • 108_房价预测案例_特征工程
  • 109_房价预测案例_模型创建
  • 110_房价预测案例_定义损失函数
  • 111_房价预测案例_训练模型和测试
  • 112_CNN_基本结构
  • 113_CNN_卷积层_基本介绍
  • 114_CNN_卷积层_数学上的卷积
  • 115_CNN_卷积层_CNN的卷积运算
  • 116_CNN_卷积层_填充
  • 117_CNN_卷积层_步幅和输出形状计算
  • 118_CNN_卷积层_3维数据卷积运算
  • 119_CNN_卷积层_API调用和测试
  • 120_CNN_池化层_基本概念和特点
  • 121_CNN_池化层_API调用和测试
  • 122_CNN_深度卷积神经网络
  • 123_服装分类案例_加载数据集
  • 124_服装分类案例_创建模型
  • 125_服装分类案例_模型训练
  • 126_服装分类案例_模型测试
  • 127_NLP概述
  • 128_词向量和词嵌入
  • 129_嵌入层API使用
  • 130_词嵌入应用和NLP模型
  • 131_RNN_基本结构和原理
  • 132_RNN_API调用
  • 133_RNN_输入输出形状
  • 134_古诗生成案例_数据预处理
  • 135_古诗生成案例_创建数据集
  • 136_古诗生成案例_创建模型
  • 137_古诗生成案例_模型训练
  • 138_古诗生成案例_生成新诗