吴恩达2014机器学习教程笔记目录

星空博客 星空博客     2022-10-09     427

关键词:

17年开始,网上的机器学习教程逐渐增多,国内我所了解的就有网易云课堂、七月、小象学院和北风。他们的课程侧重点各有不同,有些侧重理论,有些侧重实践,结合起来学习事半功倍。但是论经典,还是首推吴恩达的机器学习课程。

吴大大14年在coursera的课程通俗易懂、短小精悍,在讲解知识点的同时,还会穿插相关领域的最新动态,并向你推荐相关论文。课程10周共18节课,每个课程都有PPT和课后习题,当然,也有中文字幕。

百度网盘(视频 + 英文字幕 + 中文字幕 + 练习 + PPT):
链接:https://pan.baidu.com/s/1ggWjzFH 密码:bk1g


一、 引言(Introduction)
1.1 欢迎
1.2 机器学习是什么?
1.3 监督学习
1.4 无监督学习

二、单变量线性回归(Linear Regression with One Variable)
2.1 模型表示
2.2 代价函数
2.3 代价函数的直观理解I
2.4 代价函数的直观理解II
2.5 梯度下降
2.6 梯度下降的直观理解
2.7 梯度下降的线性回归
2.8 接下来的内容

三、线性代数回顾(Linear Algebra Review)
3.1 矩阵和向量
3.2 加法和标量乘法
3.3 矩阵向量乘法
3.4 矩阵乘法
3.5 矩阵乘法的性质
3.6 逆、转置

四、多变量线性回归(Linear Regression with Multiple Variables)
4.1 多维特征
4.2 多变量梯度下降
4.3 梯度下降法实践1-特征缩放
4.4 梯度下降法实践2-学习率
4.5 特征和多项式回归
4.6 正规方程
4.7 正规方程及不可逆性(选修)

五、Octave教程(Octave Tutorial)
5.1 基本操作
5.2 移动数据
5.3 计算数据
5.4 绘图数据
5.5 控制语句:for,while,if语句
5.6 向量化 88
5.7 工作和提交的编程练习

六、逻辑回归(Logistic Regression)
6.1 分类问题
6.2 假说表示
6.3 判定边界
6.4 代价函数
6.5 简化的成本函数和梯度下降
6.6 高级优化
6.7 多类别分类:一对多

七、正则化(Regularization)
7.1 过拟合的问题
7.2 代价函数
7.3 正则化线性回归
7.4 正则化的逻辑回归模型

第八、神经网络:表述(Neural Networks: Representation)
8.1 非线性假设
8.2 神经元和大脑
8.3 模型表示1
8.4 模型表示2
8.5 样本和直观理解1
8.6 样本和直观理解II
8.7 多类分类

九、神经网络的学习(Neural Networks: Learning)
9.1 代价函数
9.2 反向传播算法
9.3 反向传播算法的直观理解
9.4 实现注意:展开参数
9.5 梯度检验
9.6 随机初始化
9.7 综合起来
9.8 自主驾驶

十、应用机器学习的建议(Advice for Applying Machine Learning)
10.1 决定下一步做什么
10.2 评估一个假设
10.3 模型选择和交叉验证集
10.4 诊断偏差和方差
10.5 正则化和偏差/方差
10.6 学习曲线
10.7 决定下一步做什么

十一、机器学习系统的设计(Machine Learning System Design)
11.1 首先要做什么
11.2 误差分析
11.3 类偏斜的误差度量
11.4 查准率和查全率之间的权衡
11.5 机器学习的数据

十二、支持向量机(Support Vector Machines)
12.1 优化目标
12.2 大边界的直观理解
12.3 数学背后的大边界分类(选修)
12.4 核函数1
12.5 核函数2
12.6 使用支持向量机

十三、聚类(Clustering)
13.1 无监督学习:简介
13.2 K-均值算法
13.3 优化目标
13.4 随机初始化
13.5 选择聚类数

十四、降维(Dimensionality Reduction)
14.1 动机一:数据压缩
14.2 动机二:数据可视化
14.3 主成分分析问题
14.4 主成分分析算法
14.5 选择主成分的数量
14.6 重建的压缩表示
14.7 主成分分析法的应用建议

十五、异常检测(Anomaly Detection)
15.1 问题的动机
15.2 高斯分布
15.3 算法
15.4 开发和评价一个异常检测系统
15.5 异常检测与监督学习对比
15.6 选择特征
15.7 多元高斯分布(选修)
15.8 使用多元高斯分布进行异常检测(选修)

十六、推荐系统(Recommender Systems)
16.1 问题形式化
16.2 基于内容的推荐系统
16.3 协同过滤
16.4 协同过滤算法
16.5 向量化:低秩矩阵分解
16.6 推行工作上的细节:均值归一化

十七、大规模机器学习(Large Scale Machine Learning)
17.1 大型数据集的学习
17.2 随机梯度下降法
17.3 小批量梯度下降
17.4 随机梯度下降收敛
17.5 在线学习
17.6 映射化简和数据并行

十八、应用实例:图片文字识别(Application Example: Photo OCR)
18.1 问题描述和流程图
18.2 滑动窗口
18.3 获取大量数据和人工数据
18.4 上限分析:哪部分管道的接下去做

十九、总结(Conclusion)

吴恩达机器学习笔记(代码片段)

文章目录ErroranalysisMethodstosolveoverfittingMethodstosolveunderfittingRecommendapproachErrormetricsforskewedclassesDataformachinelearningSupportVectorMachineK-meansPrincipleComponentAnalysisDatapreprocessingChoosingthenumberofprincipalcomponentsApplicationof`PCA`AnomalydetectionExample... 查看详情

吴恩达机器学习学习笔记——代价函数

单变量线性回归函数 hθ(x)=θ0+θ1x为了使线性回归函数对数据有较好的预测性,即y到h(x)的距离都很小。  查看详情

吴恩达“机器学习”——学习笔记二

定义一些名词欠拟合(underfitting):数据中的某些成分未被捕获到,比如拟合结果是二次函数,结果才只拟合出了一次函数。过拟合(overfitting):使用过量的特征集合,使模型过于复杂。参数学习算法(parametriclearningalgorithms)... 查看详情

吴恩达《机器学习系列课程》学习笔记

...f0c;结果最后,B站反而更像中国的YouTube。在B站上看到吴恩达的《机器学习系列课程》,看了看发现挺有意思,就梳理一下在此形成学习笔记。第一节:前言机器学习早已成为我们的日常。每当使用Google或Bing等搜... 查看详情

machinelearning|andrewng|coursera吴恩达机器学习笔记

Week1:MachineLearning: AcomputerprogramissaidtolearnfromexperienceEwithrespecttosomeclassoftasksTandperformancemeasureP,ifitsperformanceattasksinT,asmeasuredbyP,improveswithexperienceE. Supe 查看详情

吴恩达《机器学习系列课程》学习笔记:监督学习

吴恩达的课程会很偏于用实例来掌握理论知识,不过看着还是有些云里雾里,倒是杉山将的《图解机器学习》介绍得更易懂些。在此进行结合学习。杉山将是这么通俗地定义监督学习、无监督学习和强化学习,它们是... 查看详情

coursera-andrewng(吴恩达)机器学习笔记——第一周

一.初识机器学习何为机器学习?Acomputerprogramissaidtolearn fromexperienceEwithrespecttosometaskT andsomeperformancemeasureP,ifits performanceonT,asmeasuredbyP,improves withexperienceE.理解:通过实验E,完 查看详情

吴恩达“机器学习”——学习笔记八

偏差方差权衡(biasvariancetradeoff)偏差:如果说一个模型欠拟合,也可以说它的偏差很大。方差:如果说一个模型过拟合,也可以说它的方差很大。训练误差经验风险最小化(ERM)选择参数,使得训练误差最小化,即假设类H:所有假设... 查看详情

吴恩达“机器学习”——学习笔记五

朴素贝叶斯算法(NaiveBayes)(续学习笔记四)两个朴素贝叶斯的变化版本x_i可以取多个值,即p(x_i|y)是符合多项式分布的,不是符合伯努利分布的。其他的与符合伯努利的情况一样。(同时也提供一种思路将连续型变量变成离散型的... 查看详情

吴恩达机器学习学习笔记——1.3机器学习的定义

1ArthurSamuel(1959):在没有明确编程的情况下使计算机获得学习的能力,该领域的研究为机器学习。2TomMitchell(1998):如果一个计算机程序解决任务T的性能达到了P,那么就说它从经验E中学习去解决任务T,并且达到了性能P。比... 查看详情

吴恩达“机器学习”——学习笔记四

生成学习算法判别算法:进行P(y|x)的计算或者是进行h(x)(其中h只会是0与1)的计算。生成学习算法:进行P(x|y)的建模,即给定类的条件下,某种特征显示的结果。同时也会对P(y)进行建模。根据贝叶斯公式,我们可以得到,其中p... 查看详情

吴恩达机器学习学习笔记——梯度下降

 梯度下降算法能够帮助我们快速得到代价函数的最小值算法思路:以某一参数为起始点寻找下一个参数使得代价函数的值减小,直到得到局部最小值梯度下降算法:重复下式直至收敛,其中α为学习速率,表示找到局部最小... 查看详情

吴恩达机器学习笔记-第六周

十、应用机器学习的建议10.1决定下一步做什么很多时候我们会发现我们通过最小化代价函数获得的模型所预测的值和真实值有很大的偏差(其实就是泛化能力差),此时我们可以在训练完之后对我们的模型进行诊断测试。测试模型... 查看详情

吴恩达机器学习学习笔记——1.5无监督学习

1无监督学习:在不知道数据点的含义的情况下,从一个数据集中找出数据点的结构关系。2聚类算法:相同属性的数据点会集中分布,聚集在一起,聚类算法将数据集分成不同的聚类。也就是说,机器不知道这些数据点具体是什... 查看详情

机器学习-吴恩达andrewngcoursera学习总结合集,编程作业技巧合集

...learn/machine-learning/home/welcome课程总结机器学习MachineLearning-吴恩达AndrewNg第1~5课总结机器学习MachineLearning-吴恩达AndrewNg第6~10课总结机器学 查看详情

吴恩达机器学习笔记-第三周

 六、逻辑回归6.1分类问题对于二分类问题,我们一般将结果分为0/1,在理解逻辑回归时可以引入感知机,感知机算是很早的分类器,但因为感知机是分布函数,也就是输出的值小于某一临界值,则分为-1,大于某一临界值,... 查看详情

吴恩达机器学习笔记-第四周

 八、神经网络:表述8.1非线性假设为什么需要提出神经网络,当我们在用逻辑回归或者线性回归处理分类问题时,当特征的数量较少时我们可以很好的处理,但是当特征的数量很大时,比如特征的数量为n,而很多时候我们... 查看详情

斯坦福吴恩达教授机器学习公开课第二讲笔记——有/无监督学习+线性回归

查看详情