157 lines
4.2 KiB
Markdown
157 lines
4.2 KiB
Markdown
---
|
||
Completed: 0
|
||
Created: 2023-07-08 03:19:51
|
||
Incomplete: 147
|
||
Modified: 2023-07-09 17:27:34
|
||
Tags: Task
|
||
Title: Python-机器学习
|
||
Total: 147
|
||
---
|
||
|
||
- [ ] 课程介绍
|
||
- [ ] 机器学习应用
|
||
- [ ] 机器学习定义
|
||
- [ ] 监督学习(1)
|
||
- [ ] 监督学习(2)
|
||
- [ ] 无监督学习(1)
|
||
- [ ] 无监督学习(2)
|
||
- [ ] Jupyter notebooks
|
||
- [ ] 线性回归模型(1)
|
||
- [ ] 线性回归模型(2)
|
||
- [ ] 代价函数公式
|
||
- [ ] 理解代价函数
|
||
- [ ] 可视化代价函数
|
||
- [ ] 可视化举例
|
||
- [ ] 梯度下降
|
||
- [ ] 梯度下降的实现
|
||
- [ ] 理解梯度下降
|
||
- [ ] 学习率
|
||
- [ ] 用于线性回归的梯度下降法
|
||
- [ ] 运行梯度下降
|
||
- [ ] 多维特征
|
||
- [ ] 向量化(1)
|
||
- [ ] 向量化(2)
|
||
- [ ] 用于多元线性回归的梯度下降法
|
||
- [ ] 特征缩放(1)
|
||
- [ ] 特征缩放(2)
|
||
- [ ] 判断梯度下降是否收敛
|
||
- [ ] 如何设置学习率
|
||
- [ ] 特征工程
|
||
- [ ] 多项式回归
|
||
- [ ] 动机与目的
|
||
- [ ] 逻辑回归
|
||
- [ ] 决策边界
|
||
- [ ] 逻辑回归中的代价函数
|
||
- [ ] 简化逻辑回归代价函数
|
||
- [ ] 实现梯度下降
|
||
- [ ] 过拟合问题
|
||
- [ ] 解决过拟合
|
||
- [ ] 正则化
|
||
- [ ] 用于线性回归的正则方法
|
||
- [ ] 用于逻辑回归的正则方法
|
||
- [ ] 欢迎来到第二课
|
||
- [ ] 神经元和大脑
|
||
- [ ] 需求预测
|
||
- [ ] 【案例】图像感知
|
||
- [ ] 神经网络中的网络层
|
||
- [ ] 更复杂的神经网络
|
||
- [ ] 神经网络向前传播
|
||
- [ ] 如何用代码实现推理
|
||
- [ ] Tensorflow 中数据形式
|
||
- [ ] 搭建一个神经网络
|
||
- [ ] 单个网络层上的前向传播
|
||
- [ ] 前向传播的一般实现
|
||
- [ ] 强人工智能
|
||
- [ ] 神经网络为何如此高效
|
||
- [ ] 矩阵乘法
|
||
- [ ] 矩阵乘法规则
|
||
- [ ] 矩阵乘法代码
|
||
- [ ] Tensorflow 实现
|
||
- [ ] 模型训练细节
|
||
- [ ] Sigmoid 激活函数的替代方案
|
||
- [ ] 如何选择激活函数
|
||
- [ ] 为什么模型需要激活函数
|
||
- [ ] 多分类问题
|
||
- [ ] Softmax
|
||
- [ ] 神经网络的 Softmax 输出
|
||
- [ ] Softmax 的改进实现
|
||
- [ ] 多个输出的分类
|
||
- [ ] 高级优化方法
|
||
- [ ] 其它的网络层类型
|
||
- [ ] 什么是导数
|
||
- [ ] 计算图
|
||
- [ ] 大型神经网络案例
|
||
- [ ] 决定下一步做什么
|
||
- [ ] 模型评估
|
||
- [ ] 模型选择和交叉验证测试集的训练方法
|
||
- [ ] 通过偏差与方法进行诊断
|
||
- [ ] 正则化、偏差、方差
|
||
- [ ] 指定一个用于性能评估的基准
|
||
- [ ] 学习曲线
|
||
- [ ] 决定下一步做什么
|
||
- [ ] 方差与偏差
|
||
- [ ] 机器学习开发的迭代
|
||
- [ ] 误差分析
|
||
- [ ] 添加更多数据
|
||
- [ ] 迁移学习 - 使用其他任务中的数据
|
||
- [ ] 机器学习项目的完整周期
|
||
- [ ] 公平、偏见与伦理
|
||
- [ ] 倾斜数据集的误差指标
|
||
- [ ] 精确率与召回率的权衡
|
||
- [ ] 决策树模型
|
||
- [ ] 学习过程
|
||
- [ ] 纯度
|
||
- [ ] 选择拆分信息增益
|
||
- [ ] 整合
|
||
- [ ] 独热编码 One-hot
|
||
- [ ] 连续有价值的功能
|
||
- [ ] 回归树
|
||
- [ ] 使用多个决策树
|
||
- [ ] 有放回抽样
|
||
- [ ] 随机森林
|
||
- [ ] XGBoost
|
||
- [ ] 何时使用决策树
|
||
- [ ] 欢迎来到第三课
|
||
- [ ] 什么是聚类
|
||
- [ ] K-means 直观理解
|
||
- [ ] K-means 算法
|
||
- [ ] 优化目标
|
||
- [ ] 初始化 K-means
|
||
- [ ] 选择聚类数量
|
||
- [ ] 发现异常事件
|
||
- [ ] 高斯正态分布
|
||
- [ ] 异常检测算法
|
||
- [ ] 开发与评估异常检测系统
|
||
- [ ] 异常检测与监督学习对比
|
||
- [ ] 选择使用什么特征
|
||
- [ ] 提出建议
|
||
- [ ] 使用每个特征
|
||
- [ ] 协同过滤算法
|
||
- [ ] 二进制标签
|
||
- [ ] 均值归一化
|
||
- [ ] 协同过滤 Tensorflow 实现
|
||
- [ ] 寻找相关特征
|
||
- [ ] 协同过滤与基于内容过滤对比
|
||
- [ ] 基于内容过滤的深度学习方法
|
||
- [ ] 从大型目录中推荐
|
||
- [ ] 推荐系统中的伦理
|
||
- [ ] 基于内容过滤的 Tensorflow 实现
|
||
- [ ] 降低特征数量
|
||
- [ ] PCA 算法
|
||
- [ ] PCA 代码实现
|
||
- [ ] 【案例】火星探测器
|
||
- [ ] 强化学习的汇报
|
||
- [ ] 强化学习的策略
|
||
- [ ] 审查关键概念
|
||
- [ ] 动作价值函数定义
|
||
- [ ] 动作价值函数示例
|
||
- [ ] 贝尔曼方程
|
||
- [ ] random stochastic environment
|
||
- [ ] 【案例】连续状态空间应用
|
||
- [ ] 登月器
|
||
- [ ] 学习状态值函数
|
||
- [ ] 改进的神经网络架构
|
||
- [ ] 贪婪策略
|
||
- [ ] 小批量和软更新
|
||
- [ ] 强化学习的状态
|
||
- [ ] 课程总结 |