vault backup: 2024-01-20 19:51:20

This commit is contained in:
2024-01-20 19:51:20 +08:00
parent 5138f9173a
commit e816b7aa02
2 changed files with 250 additions and 14 deletions

View File

@@ -1,11 +0,0 @@
---
atlas: "[[Task Tracker]]"
completed: 0
created: 2023-07-08 03:23:31
incomplete: 318
modified: 2024-01-06 01:51:24
tags:
- Task
title: Python
total: 318
---

View File

@@ -2,12 +2,12 @@
atlas: "[[Task Tracker]]"
completed: 40
created: 2023-07-08 03:18:59
incomplete: 318
incomplete: 509
modified: 2023-09-19 17:48:12
tags:
- Task
title: 全栈工程师
total: 358
total: 549
---
# GitHub
@@ -390,4 +390,251 @@ total: 358
# 深度学习
## 吴恩达
## 神经网络和深度学习
### 深度学习简介
- [ ] 欢迎
- [ ] 什么是神经网络
- [ ] 用神经网络进行监督学习
- [ ] 为什么深度学习会兴起
- [ ] 关于这门课
- [ ] 杰弗里辛顿访谈
- [ ] 课程资源
### 神经网络基础知识
- [ ] 二分分类
- [ ] logistic 回归
- [ ] logistic 回归损失函数
- [ ] 梯度下降法
- [ ] 导数
- [ ] 更多导数的例子
- [ ] 计算图
- [ ] 使用计算图求导
- [ ] logistic 回归中的梯度下降
- [ ] m 个样本的梯度下降
- [ ] 向量化
- [ ] 向量化的更多例子
- [ ] 向量化 logistic 回归
- [ ] 向量化 logistic 回归的梯度输出
- [ ] Python 中的广播
- [ ] 关于 Python_numpy 向量的说明
- [ ] Jupyter_ipython 笔记本的快速指南
- [ ] logistic 损失函数的解释
- [ ] 彼得阿贝尔访谈
### 浅层神经网络
- [ ] 神经网络概览
- [ ] 神经网络表示
- [ ] 计算神经网络的输出
- [ ] 多个样本的向量化
- [ ] 向量化实现的解释
- [ ] 激活函数
- [ ] 为什么需要非线性激活函数
- [ ] 激活函数的导数
- [ ] 神经网络的梯度下降法
- [ ] 直观理解反向传播
- [ ] 随机初始化
- [ ] 伊恩古德费洛访谈
### 深度神经网络
- [ ] 深层神经网络
- [ ] 前向和反向传播
- [ ] 深层网络中的前向传播
- [ ] 核对矩阵的维数
- [ ] 为什么使用深层表示
- [ ] 搭建深层神经网络块
- [ ] 参数 VS 超参数
- [ ] 这和大脑有什么关系
## 改进深度神经网络:超参数调整、正则化和优化
### 深度学习的实践方面
- [ ] 训练集 / 开发集 / 测试集
- [ ] 偏差 / 方差
- [ ] 机器学习基础
- [ ] 正则化
- [ ] 为什么正则化能减少过拟合
- [ ] Dropout 正则化
- [ ] 理解 Dropout
- [ ] 其他正则化方法
- [ ] 归一化输入
- [ ] 梯度消失与梯度爆炸
- [ ] 神经网络的权重初始化
- [ ] 梯度的数值逼近
- [ ] 梯度检验
- [ ] 关于梯度检验实现的注记
- [ ] 约书亚本吉奥访谈
### 优化算法
- [ ] Mini-batch 梯度下降法
- [ ] 指数加权平均
- [ ] 理解指数加权平均
- [ ] 指数加权平均的偏差修正
- [ ] 动量梯度下降法
- [ ] RMSprop
- [ ] Adam 优化算法
- [ ] 学习率衰减
- [ ] 局部最优的问题
- [ ] 林元庆访谈
### 超参数训练、正则化和编程框架
- [ ] 调试处理
- [ ] 为超参数选择合适的范围
- [ ] 超参数训练的实践Pandas VS Caviar
- [ ] 正则化网络的激活函数
- [ ] 将 Batch Norm 拟合进神经网络
- [ ] Batch Norm 为什么奏效
- [ ] 测试时的 Batch Norm
- [ ] Softmax 回归
- [ ] 训练一个 Softmax 分类器
- [ ] 深度学习框架
- [ ] TensorFlow
## 构建机器学习项目
### ML 策略
- [ ] 为什么是 ML 策略
- [ ] 正交化
- [ ] 单一数字评估指标
- [ ] 满足和优化指标
- [ ] 训练集 / 开发集 / 测试集划分
- [ ] 开发集和测试集的大小
- [ ] 什么时候该更改开发集 / 测试集和指标
- [ ] 为什么需要人类级别的性能
- [ ] 可避免偏差
- [ ] 理解人类级别的性能
- [ ] 超过人类级别的性能
- [ ] 提高模型性能
- [ ] 安德烈卡尔帕斯访谈
- [ ] 进行误差分析
- [ ] 清除标注错误的数据
- [ ] 快速搭建你的第一个系统并进行迭代
- [ ] 在不同的划分上进行训练并测试
- [ ] 不匹配数据划分的偏差和方差
- [ ] 解决数据不匹配
- [ ] 迁移学习
- [ ] 多任务学习
- [ ] 什么是端到端的深度学习
- [ ] 是否要使用端到端的深度学习
- [ ] 鲁斯兰萨拉胡季诺夫访谈
## 卷积神经网络
### 卷积神经网络基础
- [ ] 计算机视觉
- [ ] 边缘检测示例
- [ ] 更多边缘检测内容
- [ ] Padding
- [ ] 卷积步长
- [ ] 三维卷积
- [ ] 单层卷积网络
- [ ] 简单卷积网络示例
- [ ] 池化层
- [ ] 卷积神经网络示例
- [ ] 为什么使用卷积
- [ ] Yann LeCun 访谈
### 深度卷积模型:案例研究
- [ ] 为什么要进行案例研究
- [ ] 经典网络
- [ ] 残差网络
- [ ] 残差网络为什么有用
- [ ] 网络中的网络以及 1x1 卷积
- [ ] 谷歌 Inception 网络简介
- [ ] Inception 网络
- [ ] 使用开源的实现方案
- [ ] 迁移学习
- [ ] 数据扩充
- [ ] 计算机视觉现状
### 物体检测
- [ ] 目标定位
- [ ] 特征点检测
- [ ] 目标检测
- [ ] 卷积的滑动窗口实现
- [ ] Bounding Box 预测
- [ ] 交并比
- [ ] 非极大值抑制
- [ ] Anchor Boxes
- [ ] YOLO 算法
- [ ] 候选区域
- [ ] 利用 U-Net 进行语义分割
- [ ] 移调卷积
- [ ] U-Net 架构直观理解
- [ ] U-Net 架构
### 特殊应用:人脸识别与神经风格转换
- [ ] 什么是人脸识别
- [ ] One-Shot 学习
- [ ] Siamese 网络
- [ ] Triplet 损失
- [ ] 人脸识别与二分类
- [ ] 什么是神经风格转换
- [ ] 什么是深度卷积网络
- [ ] 代价函数
- [ ] 内容代价函数
- [ ] 风格 / 代价 / 功能
- [ ] 一维到三维推广
## 序列模型
### 递归神经网络
- [ ] 为什么选择序列模型
- [ ] 数学符号
- [ ] 循环神经网络
- [ ] 通过时间的反向传播
- [ ] 不同类型的循环神经网络
- [ ] 语言模型和序列生成
- [ ] 新序列采样
- [ ] 带有循环神经网络的梯度消失
- [ ] GRU 单元
- [ ] 长短期记忆
- [ ] 双向循环神经网络
- [ ] 深层循环神经网络
### 自然语言处理与单词嵌入
- [ ] 词汇表征
- [ ] 使用词嵌入
- [ ] 词嵌入的特性
- [ ] 嵌入矩阵
- [ ] 学习词嵌入
- [ ] Word2Vec
- [ ] 负采样
- [ ] GloVe 词向量
- [ ] 情绪分类
- [ ] 词嵌入除偏
### 序列模型和注意机制
- [ ] 基础模型
- [ ] 选择最可能的句子
- [ ] 定向搜索
- [ ] 改进定向搜索
- [ ] 定向搜索的误差分析
- [ ] Bleu 得分
- [ ] 注意力模型直观理解
- [ ] 注意力模型
- [ ] 语音辨识
- [ ] 触发词检测
### Transformer 神经网络
- [ ] Transformer 神经网络直观理解
- [ ] Self Attention
- [ ] Multi-Head Attention
- [ ] Transformer 神经网络
- [ ] 结论和致谢