深度学习必修课进击算法工程师学习笔记
深度学习必修课进击算法工程师学习笔记001.1-1课程内容和理念 002.1-2初识深度学习 003.1-3课程使用的技术栈 004.2-1线性代数 005.2-2微积分 006.2-3概率 007.3-1CUDAAnaconda深度学习环境搭建 008.3-2conda实用命令 009.3-3JupyterNotebook快速上手 010.3
深度学习必修课进击算法工程师学习笔记001.1-1课程内容和理念 002.1-2初识深度学习 003.1-3课程使用的技术栈 004.2-1线性代数 005.2-2微积分 006.2-3概率 007.3-1CUDAAnaconda深度学习环境搭建 008.3-2conda实用命令 009.3-3JupyterNotebook快速上手 010.3
深度学习必修课进击算法工程师学习笔记
001.1-1课程内容和理念
002.1-2初识深度学习
003.1-3课程使用的技术栈
004.2-1线性代数
005.2-2微积分
006.2-3概率
007.3-1CUDAAnaconda深度学习环境搭建
008.3-2conda实用命令
009.3-3JupyterNotebook快速上手
010.3-4深度学习库PyTorch安装
011.4-1神经网络原理
012.4-2多层感知机
013.4-3前向传播和反向传播
014.4-4多层感知机代码实现
015.4-5回归问题
016.4-6线性回归代码实现
017.4-7分类问题
018.4-8多分类问题代码实现
019.5-1训练的常见问题
020.5-2过拟合欠拟合应对策略
021.5-3过拟合和欠拟合示例
022.5-4正则化
023.5-5Dropout
024.5-6Dropout代码实现
025.5-7梯度消失和梯度爆炸
026.5-8模型文件的读写
027.6-1最优化与深度学习
028.6-2损失函数
029.6-3损失函数性质
030.6-4梯度下降
031.6-5随机梯度下降法
032.6-6小批量梯度下降法
033.6-7动量法
034.6-8AdaGrad算法
035.6-9RMSProp_Adadelta算法
036.6-10Adam算法
037.6-11梯度下降代码实现
038.6-12学习率调节器
039.7-1全连接层问题
040.7-2图像卷积
041.7-3卷积层
042.7-4卷积层常见操作
043.7-5池化层Pooling
044.7-6卷积神经网络代码实现(LeNet)
045.8-1AlexNet
046.8-2VGGNet
047.8-3批量规范化
048.8-4GoogLeNet
049.8-5ResNet
050.8-6DenseNet
051.9-1序列建模
052.9-2文本数据预处理
053.9-3循环神经网络
054.9-4随时间反向传播算法
055.9-5循环神经网络代码实现
056.9-6RNN的长期依赖问题
057.10-1深度循环神经网络
058.10-2双向循环神经网络
059.10-3门控循环单元
060.10-4长短期记忆网络
061.10-5复杂循环神经网络代码实现
062.10-6编码器-解码器网络
063.10-7序列到序列模型代码实现
064.10-8束搜索算法
065.10-9机器翻译简单代码实现
066.11-1什么是注意力机制
067.11-2注意力的计算
068.11-3键值对注意力和多头注意力
069.11-4自注意力机制
070.11-5注意力池化及代码实现
071.11-6Transformer模型
072.11-7Transformer代码实现
073.12-1BERT模型
074.12-2GPT系列模型