第1章 欢迎来到 Python3 玩转机器学习
1-1 什么是机器学习 (20:14)
1-2 课程涵盖的内容和理念 (13:25)
1-3 课程所使用的主要技术栈 (14:10)
第2章 机器学习基础
2-1 机器学习世界的数据 (18:27)
2-2 机器学习的主要任务 (16:00)
2-3 监督学习,非监督学习,半监督学习和增强学习 (17:38)
2-4 批量学习,在线学习,参数学习和非参数学习 (11:53)
2-5 和机器学习相关的“哲学”思考 (12:00)
2-6 关于回归和分类
2-7 课程使用环境搭建 (13:08)
第3章 Jupyter Notebook, numpy和matplotlib
3-1 Jupyter Notebook基础 (18:42)
3-2 Jupyter Notebook中的魔法命令 (20:51)
3-3 Numpy数据基础 (11:06)
3-4 创建Numpy数组(和矩阵) (19:16)
3-5 Numpy数组(和矩阵)的基本操作 (18:15)
3-6 Numpy数组(和矩阵)的合并与分割 (18:00)
3-7 Numpy中的矩阵运算 (23:11)
3-8 Numpy中的聚合运算 (13:19)
3-9 Numpy中的arg运算 (11:12)
3-10 Numpy中的比较和Fancy Indexing (22:36)
3-11 Matplotlib数据可视化基础 (18:05)
3-12 数据加载和简单的数据探索 (12:49)
第4章 最基础的分类算法-k近邻算法 kNN
4-1 k近邻算法基础 (22:42)
4-2 scikit-learn中的机器学习算法封装 (22:22)
4-3 训练数据集,测试数据集 (22:46)
4-4 分类准确度 (19:20)
4-5 超参数 (21:36)
4-6 网格搜索与k近邻算法中更多超参数 (17:24)
4-7 数据归一化 (15:27)
4-8 scikit-learn中的Scaler (19:24)
4-9 更多有关k近邻算法的思考 (10:22)
第5章 线性回归法
5-1 简单线性回归 (18:06)
5-2 最小二乘法 (11:27)
5-3 简单线性回归的实现 (14:09)
5-4 向量化 (12:02)
5-5 衡量线性回归法的指标:MSE,RMSE和MAE (22:45)
5-6 最好的衡量线性回归法的指标:R Squared (16:28)
5-7 多元线性回归和正规方程解 (15:58)
5-8 实现多元线性回归 (13:08)
5-9 使用scikit-learn解决回归问题 (12:42)
5-10 线性回归的可解释性和更多思考 (11:53)
第6章 梯度下降法
6-1 什么是梯度下降法 (16:20)
6-2 模拟实现梯度下降法 (20:11)
6-3 线性回归中的梯度下降法 (10:56)
6-4 实现线性回归中的梯度下降法 (14:06)
6-5 梯度下降法的向量化和数据标准化 (22:14)
6-6 随机梯度下降法 (17:34)
6-7 scikit-learn中的随机梯度下降法 (15:40)
6-8 如何确定梯度计算的准确性?调试梯度下降法 (16:29)
6-9 有关梯度下降法的更多深入讨论 (08:37)
第7章 PCA与梯度上升法
7-1 什么是PCA (17:45)
7-2 使用梯度上升法求解PCA问题 (09:10)
7-3 求数据的主成分PCA (20:09)
7-4 求数据的前n个主成分 (17:36)
7-5 高维数据映射为低维数据 (19:29)
7-6 scikit-learn中的PCA (18:57)
7-7 试手MNIST数据集 (12:06)
7-8 在三维数据上的 PCA
7-9 关于 MNIST 数据集的最新获得方式
7-10 使用PCA对数据进行降噪 (10:00)
7-11 人脸识别与特征脸 (13:57)
第8章 多项式回归与模型泛化
8-1 什么是多项式回归 (11:38)
8-2 scikit-learn中的多项式回归与Pipeline (16:26)
8-3 过拟合与欠拟合 (14:22)
8-4 为什么要有训练数据集与测试数据集 (16:09)
8-5 学习曲线 (15:28)
8-6 验证数据集与交叉验证 (25:20)
8-7 偏差方差平衡 (15:16)
8-8 模型泛化与岭回归 (19:15)
8-9 LASSO (16:59)
8-10 L1, L2和弹性网络 (14:25)
第9章 逻辑回归
9-1 什么是逻辑回归 (16:07)
9-2 逻辑回归的损失函数 (15:00)
9-3 逻辑回归损失函数的梯度 (17:50)
9-4 实现逻辑回归算法 (14:29)
9-5 决策边界 (21:09)
9-6 在逻辑回归中使用多项式特征 (15:09)
9-7 scikit-learn中的逻辑回归 (17:22)
9-8 OvR与OvO (19:09)
9-9 其他算法的决策边界
第10章 评价分类结果
10-1 准确度的陷阱和混淆矩阵 (15:06)
10-2 精准率和召回率 (11:51)
10-3 实现混淆矩阵,精准率和召回率 (15:42)
10-4 F1 Score (17:42)
10-5 精准率和召回率的平衡 (20:18)
10-6 精准率-召回率曲线 (14:21)
10-7 ROC曲线 (16:52)
10-8 关于机器学习不同的指标
10-9 多分类问题中的混淆矩阵 (13:30)
第11章 支撑向量机 SVM
11-1 什么是SVM (13:54)
11-2 SVM背后的最优化问题 (19:21)
11-3 Soft Margin SVM (16:12)
11-4 scikit-learn中的SVM (21:23)
11-5 SVM中使用多项式特征和核函数 (12:43)
11-6 到底什么是核函数 (15:31)
11-7 RBF核函数 (20:46)
11-8 RBF核函数中的gamma (13:39)
11-9 SVM思想解决回归问题 (10:46)
第12章 决策树
12-1 什么是决策树 (12:01)
12-2 信息熵 (16:30)
12-3 使用信息熵寻找最优划分 (20:20)
12-4 基尼系数 (17:41)
12-5 CART与决策树中的超参数 (15:04)
12-6 决策树解决回归问题 (08:15)
12-7 决策树的局限性 (08:16)
第13章 集成学习和随机森林
13-1 什么是集成学习 (16:35)
13-2 Soft Voting Classifier (14:30)
13-3 Bagging 和 Pasting (16:52)
13-4 oob (Out-of-Bag) 和关于Bagging的更多讨论 (14:40)
13-5 随机森林和 Extra-Trees (13:14)
13-6 Ada Boosting 和 Gradient Boosting (15:30)
13-7 Stacking (08:46)
13-8 关于 XGBoost
第14章 更多机器学习算法
14-1 学习scikit-learn文档, 大家加油! (08:32)
14-2 学习完这个课程以后怎样继续深入机器学习的学习?

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。