梗直哥机器学习必修课经典算法与Python实战学习笔记
梗直哥机器学习必修课经典算法与Python实战学习笔记05.2-2-数据长什么样:常见数据集、典型实例、如何使用 06.2-3-研究哪些问题:分类、回归等 07.2-4-如何分门别类:监督、无监督、强化学习等 08.2-5-机器学习的七大常见误区和局限 09.3-1本章总览:相互关系与学习路线 10.3-2-Anaconda图形化操作 100.12-4-聚类算法
梗直哥机器学习必修课经典算法与Python实战学习笔记05.2-2-数据长什么样:常见数据集、典型实例、如何使用 06.2-3-研究哪些问题:分类、回归等 07.2-4-如何分门别类:监督、无监督、强化学习等 08.2-5-机器学习的七大常见误区和局限 09.3-1本章总览:相互关系与学习路线 10.3-2-Anaconda图形化操作 100.12-4-聚类算法
梗直哥机器学习必修课经典算法与Python实战学习笔记
05.2-2-数据长什么样:常见数据集、典型实例、如何使用
06.2-3-研究哪些问题:分类、回归等
07.2-4-如何分门别类:监督、无监督、强化学习等
08.2-5-机器学习的七大常见误区和局限
09.3-1本章总览:相互关系与学习路线
10.3-2-Anaconda图形化操作
100.12-4-聚类算法代码实现
101.12-5-聚类评估代码实现
102.12-6-聚类算法优缺点和适用条件
103.13-1-本章总览
104.13-2-PCA核心思想和原理
105.13-3-PCA求解算法
106.13-4-PCA算法代码实现
107.13-5-降维任务代码实现
108.13-6-PCA在数据降噪中的应用
109.13-7-PCA在人脸识别中的应用
11.3-3-Anaconda命令行操作
110.13-8-主成分分析优缺点和适用条件
111.14-1-本章总览
112.14-2-概率图模型核心思想和原理
113.14-3-EM算法参数估计
114.14-4-隐马尔可夫模型代码实现
115.14-5-概率图模型优缺点和适用条件
116.15-1-本章总览
117.15-2-泰坦尼克生还预测
118.15-3-房价预测
119.15-4-交易反欺诈代码实现
12.3-4-JupyterNotebook基础使用
120.15-5-如何深入研究机器学习
13.3-5-JupyterNotebook高级使用:常用魔法命令
14.3-6-Numpy基础:安装与性能对比
15.3-7-Numpy数组创建:特定数组、等差数组、随机数组
16.3-8-Numpy数组基础索引:索引和切片
17.3-9-Numpy非常重要的数组合并与拆分操作
18.3-10-Numpy数组矩阵运算:一元运算、二元运算与矩阵运算
19.3-11-Numpy数组统计运算:常用的都在这儿了
20.3-12-Numpy数组arg运算和排序
21.3-13-Numpy数组神奇索引和布尔索引
22.3-14-Matplotlib数据可视化:基础绘制与设置
23.4-1本章总览
24.4-2-KNN算法核心思想和原理
25.4-3-KNN分类任务代码实现
26.4-4-数据集划分:训练集与预测集
27.4-5-模型评价
28.4-6-超参数
29.4-7-特征归一化
30.4-8-KNN回归任务代码实现
31.4-9-KNN优缺点和适用条件
32.5-1-本章总览
33.5-2-线性回归核心思想和原理
34.5-3-逻辑回归核心思想和原理
35.5-4-线性回归代码实现
36.5-5-模型评价:MSE、RMSE、MAE和R方
37.5-6多项式回归代码实现
38.5-7-逻辑回归算法
39.5-8-线性逻辑回归代码实现
40.5-9多分类策略
41.5-10-复杂逻辑回归及代码实现
42.5-11-线性算法优缺点和适用条件
43.6-1-本章总览
44.6-2-损失函数
45.6-3-梯度下降
46.6-4-决策边界
47.6-5-过拟合与欠拟合
48.6-6-学习曲线
49.6-7-交叉验证
50.6-8-模型误差
51.6-9-正则化
52.6-10-LASSO和岭回归代码实现
53.6-11-模型泛化
54.6-12-评价指标:混淆矩阵、精准率和召回率
55.6-13-评价指标:ROC曲线
56.7-1-本章总览
57.7-2-决策树核心思想和原理
58.7-3-信息熵
59.7-4-决策树分类任务代码实现
60.7-5-基尼系数
61.7-6-决策树剪枝
62.7-7-决策树回归任务代码实现
63.7-8-决策树优缺点和适用条件
64.8-1-本章总览
65.8-2-神经网络核心思想和原理
66.8-3-激活函数
67.8-4-正向传播与反向传播
68.8-5-梯度下降优化算法
69.8-6-神经网络简单代码实现
70.8-7-梯度消失和梯度爆炸
71.8-8-模型选择
72.8-9-神经网络优缺点和适用条件
73.9-1-本章总览
74.9-2-SVM核心思想和原理
75.9-3-硬间隔SVM
76.9-4-SVM软间隔
77.9-5-线性SVM分类任务代码实现
78.9-6-非线性SVM:核技巧
79.9-7-SVM核函数
80.9-8-非线性SVM代码实现
81.9-9-SVM回归任务代码实现
82.9-10-SVM优缺点和适用条件
83.10-1-本章总览
84.10-2-贝叶斯方法核心思想和原理
85.10-3-朴素贝叶斯分类
86.10-4-朴素贝叶斯的代码实现
87.10-5-多项式朴素贝叶斯代码实现
88.10-6-贝叶斯方法优缺点和适用条件
89.11-1-本章总览
90.11-2-集成学习核心思想和原理
91.11-3-集成学习代码实现
92.11-4-并行策略:Bagging、OOB等方法
93.11-5-并行策略:随机森林
94.11-6-串行策略:Boosting
95.11-7-结合策略:Stacking方法
96.11-8-集成学习优缺点和适用条件