From e816b7aa0201d56fcf20e900e2cfef07ed29844c Mon Sep 17 00:00:00 2001 From: kefandaoren Date: Sat, 20 Jan 2024 19:51:20 +0800 Subject: [PATCH] vault backup: 2024-01-20 19:51:20 --- Spaces/000-Task/Python.md | 11 -- Spaces/000-Task/全栈工程师.md | 253 +++++++++++++++++++++++++++++++++- 2 files changed, 250 insertions(+), 14 deletions(-) delete mode 100644 Spaces/000-Task/Python.md diff --git a/Spaces/000-Task/Python.md b/Spaces/000-Task/Python.md deleted file mode 100644 index bbc0c649..00000000 --- a/Spaces/000-Task/Python.md +++ /dev/null @@ -1,11 +0,0 @@ ---- -atlas: "[[Task Tracker]]" -completed: 0 -created: 2023-07-08 03:23:31 -incomplete: 318 -modified: 2024-01-06 01:51:24 -tags: - - Task -title: Python -total: 318 ---- diff --git a/Spaces/000-Task/全栈工程师.md b/Spaces/000-Task/全栈工程师.md index c26b901b..5f97c898 100644 --- a/Spaces/000-Task/全栈工程师.md +++ b/Spaces/000-Task/全栈工程师.md @@ -2,12 +2,12 @@ atlas: "[[Task Tracker]]" completed: 40 created: 2023-07-08 03:18:59 -incomplete: 318 +incomplete: 509 modified: 2023-09-19 17:48:12 tags: - Task title: 全栈工程师 -total: 358 +total: 549 --- # GitHub @@ -390,4 +390,251 @@ total: 358 # 深度学习 -## 吴恩达 +## 神经网络和深度学习 + +### 深度学习简介 + +- [ ] 欢迎 +- [ ] 什么是神经网络 +- [ ] 用神经网络进行监督学习 +- [ ] 为什么深度学习会兴起 +- [ ] 关于这门课 +- [ ] 杰弗里辛顿访谈 +- [ ] 课程资源 + +### 神经网络基础知识 + +- [ ] 二分分类 +- [ ] logistic 回归 +- [ ] logistic 回归损失函数 +- [ ] 梯度下降法 +- [ ] 导数 +- [ ] 更多导数的例子 +- [ ] 计算图 +- [ ] 使用计算图求导 +- [ ] logistic 回归中的梯度下降 +- [ ] m 个样本的梯度下降 +- [ ] 向量化 +- [ ] 向量化的更多例子 +- [ ] 向量化 logistic 回归 +- [ ] 向量化 logistic 回归的梯度输出 +- [ ] Python 中的广播 +- [ ] 关于 Python_numpy 向量的说明 +- [ ] Jupyter_ipython 笔记本的快速指南 +- [ ] logistic 损失函数的解释 +- [ ] 彼得阿贝尔访谈 + +### 浅层神经网络 + +- [ ] 神经网络概览 +- [ ] 神经网络表示 +- [ ] 计算神经网络的输出 +- [ ] 多个样本的向量化 +- [ ] 向量化实现的解释 +- [ ] 激活函数 +- [ ] 为什么需要非线性激活函数 +- [ ] 激活函数的导数 +- [ ] 神经网络的梯度下降法 +- [ ] 直观理解反向传播 +- [ ] 随机初始化 +- [ ] 伊恩古德费洛访谈 + +### 深度神经网络 + +- [ ] 深层神经网络 +- [ ] 前向和反向传播 +- [ ] 深层网络中的前向传播 +- [ ] 核对矩阵的维数 +- [ ] 为什么使用深层表示 +- [ ] 搭建深层神经网络块 +- [ ] 参数 VS 超参数 +- [ ] 这和大脑有什么关系 + +## 改进深度神经网络:超参数调整、正则化和优化 + +### 深度学习的实践方面 + +- [ ] 训练集 / 开发集 / 测试集 +- [ ] 偏差 / 方差 +- [ ] 机器学习基础 +- [ ] 正则化 +- [ ] 为什么正则化能减少过拟合 +- [ ] Dropout 正则化 +- [ ] 理解 Dropout +- [ ] 其他正则化方法 +- [ ] 归一化输入 +- [ ] 梯度消失与梯度爆炸 +- [ ] 神经网络的权重初始化 +- [ ] 梯度的数值逼近 +- [ ] 梯度检验 +- [ ] 关于梯度检验实现的注记 +- [ ] 约书亚本吉奥访谈 + +### 优化算法 + +- [ ] Mini-batch 梯度下降法 +- [ ] 指数加权平均 +- [ ] 理解指数加权平均 +- [ ] 指数加权平均的偏差修正 +- [ ] 动量梯度下降法 +- [ ] RMSprop +- [ ] Adam 优化算法 +- [ ] 学习率衰减 +- [ ] 局部最优的问题 +- [ ] 林元庆访谈 + +### 超参数训练、正则化和编程框架 + +- [ ] 调试处理 +- [ ] 为超参数选择合适的范围 +- [ ] 超参数训练的实践:Pandas VS Caviar +- [ ] 正则化网络的激活函数 +- [ ] 将 Batch Norm 拟合进神经网络 +- [ ] Batch Norm 为什么奏效 +- [ ] 测试时的 Batch Norm +- [ ] Softmax 回归 +- [ ] 训练一个 Softmax 分类器 +- [ ] 深度学习框架 +- [ ] TensorFlow + +## 构建机器学习项目 + +### ML 策略 + +- [ ] 为什么是 ML 策略 +- [ ] 正交化 +- [ ] 单一数字评估指标 +- [ ] 满足和优化指标 +- [ ] 训练集 / 开发集 / 测试集划分 +- [ ] 开发集和测试集的大小 +- [ ] 什么时候该更改开发集 / 测试集和指标 +- [ ] 为什么需要人类级别的性能 +- [ ] 可避免偏差 +- [ ] 理解人类级别的性能 +- [ ] 超过人类级别的性能 +- [ ] 提高模型性能 +- [ ] 安德烈卡尔帕斯访谈 +- [ ] 进行误差分析 +- [ ] 清除标注错误的数据 +- [ ] 快速搭建你的第一个系统并进行迭代 +- [ ] 在不同的划分上进行训练并测试 +- [ ] 不匹配数据划分的偏差和方差 +- [ ] 解决数据不匹配 +- [ ] 迁移学习 +- [ ] 多任务学习 +- [ ] 什么是端到端的深度学习 +- [ ] 是否要使用端到端的深度学习 +- [ ] 鲁斯兰萨拉胡季诺夫访谈 + +## 卷积神经网络 + +### 卷积神经网络基础 + +- [ ] 计算机视觉 +- [ ] 边缘检测示例 +- [ ] 更多边缘检测内容 +- [ ] Padding +- [ ] 卷积步长 +- [ ] 三维卷积 +- [ ] 单层卷积网络 +- [ ] 简单卷积网络示例 +- [ ] 池化层 +- [ ] 卷积神经网络示例 +- [ ] 为什么使用卷积 +- [ ] Yann LeCun 访谈 + +### 深度卷积模型:案例研究 + +- [ ] 为什么要进行案例研究 +- [ ] 经典网络 +- [ ] 残差网络 +- [ ] 残差网络为什么有用 +- [ ] 网络中的网络以及 1x1 卷积 +- [ ] 谷歌 Inception 网络简介 +- [ ] Inception 网络 +- [ ] 使用开源的实现方案 +- [ ] 迁移学习 +- [ ] 数据扩充 +- [ ] 计算机视觉现状 + +### 物体检测 + +- [ ] 目标定位 +- [ ] 特征点检测 +- [ ] 目标检测 +- [ ] 卷积的滑动窗口实现 +- [ ] Bounding Box 预测 +- [ ] 交并比 +- [ ] 非极大值抑制 +- [ ] Anchor Boxes +- [ ] YOLO 算法 +- [ ] 候选区域 +- [ ] 利用 U-Net 进行语义分割 +- [ ] 移调卷积 +- [ ] U-Net 架构直观理解 +- [ ] U-Net 架构 + +### 特殊应用:人脸识别与神经风格转换 + +- [ ] 什么是人脸识别 +- [ ] One-Shot 学习 +- [ ] Siamese 网络 +- [ ] Triplet 损失 +- [ ] 人脸识别与二分类 +- [ ] 什么是神经风格转换 +- [ ] 什么是深度卷积网络 +- [ ] 代价函数 +- [ ] 内容代价函数 +- [ ] 风格 / 代价 / 功能 +- [ ] 一维到三维推广 + +## 序列模型 + +### 递归神经网络 + +- [ ] 为什么选择序列模型 +- [ ] 数学符号 +- [ ] 循环神经网络 +- [ ] 通过时间的反向传播 +- [ ] 不同类型的循环神经网络 +- [ ] 语言模型和序列生成 +- [ ] 新序列采样 +- [ ] 带有循环神经网络的梯度消失 +- [ ] GRU 单元 +- [ ] 长短期记忆 +- [ ] 双向循环神经网络 +- [ ] 深层循环神经网络 + +### 自然语言处理与单词嵌入 + +- [ ] 词汇表征 +- [ ] 使用词嵌入 +- [ ] 词嵌入的特性 +- [ ] 嵌入矩阵 +- [ ] 学习词嵌入 +- [ ] Word2Vec +- [ ] 负采样 +- [ ] GloVe 词向量 +- [ ] 情绪分类 +- [ ] 词嵌入除偏 + +### 序列模型和注意机制 + +- [ ] 基础模型 +- [ ] 选择最可能的句子 +- [ ] 定向搜索 +- [ ] 改进定向搜索 +- [ ] 定向搜索的误差分析 +- [ ] Bleu 得分 +- [ ] 注意力模型直观理解 +- [ ] 注意力模型 +- [ ] 语音辨识 +- [ ] 触发词检测 + +### Transformer 神经网络 + +- [ ] Transformer 神经网络直观理解 +- [ ] Self Attention +- [ ] Multi-Head Attention +- [ ] Transformer 神经网络 +- [ ] 结论和致谢 \ No newline at end of file