4.2 KiB
4.2 KiB
Completed, Created, Incomplete, Modified, Tags, Title, Total
| Completed | Created | Incomplete | Modified | Tags | Title | Total |
|---|---|---|---|---|---|---|
| 0 | 2023-07-08 03:19:51 | 147 | 2023-07-09 17:27:34 | Task | Python-机器学习 | 147 |
- 课程介绍
- 机器学习应用
- 机器学习定义
- 监督学习(1)
- 监督学习(2)
- 无监督学习(1)
- 无监督学习(2)
- Jupyter notebooks
- 线性回归模型(1)
- 线性回归模型(2)
- 代价函数公式
- 理解代价函数
- 可视化代价函数
- 可视化举例
- 梯度下降
- 梯度下降的实现
- 理解梯度下降
- 学习率
- 用于线性回归的梯度下降法
- 运行梯度下降
- 多维特征
- 向量化(1)
- 向量化(2)
- 用于多元线性回归的梯度下降法
- 特征缩放(1)
- 特征缩放(2)
- 判断梯度下降是否收敛
- 如何设置学习率
- 特征工程
- 多项式回归
- 动机与目的
- 逻辑回归
- 决策边界
- 逻辑回归中的代价函数
- 简化逻辑回归代价函数
- 实现梯度下降
- 过拟合问题
- 解决过拟合
- 正则化
- 用于线性回归的正则方法
- 用于逻辑回归的正则方法
- 欢迎来到第二课
- 神经元和大脑
- 需求预测
- 【案例】图像感知
- 神经网络中的网络层
- 更复杂的神经网络
- 神经网络向前传播
- 如何用代码实现推理
- Tensorflow 中数据形式
- 搭建一个神经网络
- 单个网络层上的前向传播
- 前向传播的一般实现
- 强人工智能
- 神经网络为何如此高效
- 矩阵乘法
- 矩阵乘法规则
- 矩阵乘法代码
- Tensorflow 实现
- 模型训练细节
- Sigmoid 激活函数的替代方案
- 如何选择激活函数
- 为什么模型需要激活函数
- 多分类问题
- Softmax
- 神经网络的 Softmax 输出
- Softmax 的改进实现
- 多个输出的分类
- 高级优化方法
- 其它的网络层类型
- 什么是导数
- 计算图
- 大型神经网络案例
- 决定下一步做什么
- 模型评估
- 模型选择和交叉验证测试集的训练方法
- 通过偏差与方法进行诊断
- 正则化、偏差、方差
- 指定一个用于性能评估的基准
- 学习曲线
- 决定下一步做什么
- 方差与偏差
- 机器学习开发的迭代
- 误差分析
- 添加更多数据
- 迁移学习 - 使用其他任务中的数据
- 机器学习项目的完整周期
- 公平、偏见与伦理
- 倾斜数据集的误差指标
- 精确率与召回率的权衡
- 决策树模型
- 学习过程
- 纯度
- 选择拆分信息增益
- 整合
- 独热编码 One-hot
- 连续有价值的功能
- 回归树
- 使用多个决策树
- 有放回抽样
- 随机森林
- XGBoost
- 何时使用决策树
- 欢迎来到第三课
- 什么是聚类
- K-means 直观理解
- K-means 算法
- 优化目标
- 初始化 K-means
- 选择聚类数量
- 发现异常事件
- 高斯正态分布
- 异常检测算法
- 开发与评估异常检测系统
- 异常检测与监督学习对比
- 选择使用什么特征
- 提出建议
- 使用每个特征
- 协同过滤算法
- 二进制标签
- 均值归一化
- 协同过滤 Tensorflow 实现
- 寻找相关特征
- 协同过滤与基于内容过滤对比
- 基于内容过滤的深度学习方法
- 从大型目录中推荐
- 推荐系统中的伦理
- 基于内容过滤的 Tensorflow 实现
- 降低特征数量
- PCA 算法
- PCA 代码实现
- 【案例】火星探测器
- 强化学习的汇报
- 强化学习的策略
- 审查关键概念
- 动作价值函数定义
- 动作价值函数示例
- 贝尔曼方程
- random stochastic environment
- 【案例】连续状态空间应用
- 登月器
- 学习状态值函数
- 改进的神经网络架构
- 贪婪策略
- 小批量和软更新
- 强化学习的状态
- 课程总结