ng机器学习视频笔记——梯度下降算法解释以及求解θ

lin_h lin_h     2022-10-13     662

关键词:

ng机器学习视频笔记(二)

——梯度下降算法解释以及求解θ

  (转载请附上本文链接——linhxx)

 

 

 一、解释梯度算法

 

         梯度算法公式以及简化的代价函数图,如上图所示。

         1)偏导数

由上图可知,在a点,其偏导数小于0,故θ减去小于0的数,相当于加上一个数。另外,从图上可以看出,在a点不是最佳点,需要继续向右移动,即a需要增加。因此符合要求。

       对于在b点,可以同理得到需要减少的结果。

       2)学习速率α

       α表示点移动向最小值点的速率,α取值需要注意。

       当值太大,每次移动的距离太长,可能导致在最小值点附近时,移动会超出最小值点的位置,导致不断的在大于、小于最小值点的位置偏移,无法收敛;

       当值太小,移动速度 非常慢,会导致程序执行时间太久。

       另外,由于在越接近最小值点,偏导数的数量值(绝对值)越小,因此变化速率本身就会变慢,因此选定α后,不需要再去调整数值,其自己会减慢速率。

 

二、梯度算法缺陷

 

         由上图可知,对于有多个极小值点的代价函数,梯度算法只能取到局部最小值点,即函数的极小值点,但是没法保证该点就是最小值点。

 

三、求解θ

      

       公式如上图所示,实质上就是求偏倒的结果。

       不断的计算θ0和θ1,直到偏导数为0(或者设定小于某个阈值),则停止计算,此时的结果则是对于某个起始点的局部最优结果。

 

——written by linhxx

 

更多最新文章,欢迎关注微信公众号“决胜机器学习”,或扫描右边二维码。

吴恩达机器学习学习笔记——梯度下降

 梯度下降算法能够帮助我们快速得到代价函数的最小值算法思路:以某一参数为起始点寻找下一个参数使得代价函数的值减小,直到得到局部最小值梯度下降算法:重复下式直至收敛,其中α为学习速率,表示找到局部最小... 查看详情

吴恩达机器学习学习笔记——2.7第一个学习算法=线性回归+梯度下降

梯度下降算法:              线性回归模型:      线性假设:                     平方差成本函数:将各个公式代入,对θ0、θ1分别求偏导得:再将偏导数代入梯度下降算法... 查看详情

机器学习100天(十四):014梯度下降算法求解线性回归

机器学习100天,今天讲的是:使用梯度下降算法求解线性回归问题。一、梯度下降更新公式之前我们介绍了正规方程法直接求解线性回归问题,但是梯度下降算法在机器学习中更为常用,因为面对复杂问题时,梯度下降算法能够... 查看详情

机器学习100天(十四):014梯度下降算法求解线性回归

机器学习100天,今天讲的是:使用梯度下降算法求解线性回归问题。一、梯度下降更新公式之前我们介绍了正规方程法直接求解线性回归问题,但是梯度下降算法在机器学习中更为常用,因为面对复杂问题时,梯度下降算法能够... 查看详情

ng机器学习视频笔记——过拟合与正则化

ng机器学习视频笔记(五)——过拟合与正则化 (转载请附上本文链接——linhxx) 一、过拟合和欠拟合1、概念        当针对样本集和特征值,进行预测的时候,推导θ、梯度下降等,都在一... 查看详情

机器学习笔记03:normalequation与梯度下降的比较

在《机器学习笔记02》中已经讲了多变量的梯度下降法,以及其他的一些小技巧和注意事项。下面来讲一种更加数学化的方法,我们称之为Normalequation,网上也没找到什么标准的翻译,就暂且称其为矩阵方程法吧。... 查看详情

机器学习对梯度下降算法的进一步理解

单一变量的线性回归让我们依然以房屋为例,如果输入的样本特征是房子的尺寸,我们需要研究房屋尺寸和房屋价格之间的关系,假设我们的回归模型训练集如下 其中我们用m表示训练集实例中的实例数量,x代表特征(输入... 查看详情

机器学习实战之logistic回归

...2.logistic回归分类函数  一、概述  分类技术是机器学习和数据挖掘应用中的重要组成部分。在数据科学中,大约70%的问题属于分类问题。解决分类问题的算法也有很多种,比如 查看详情

机器学习1监督学习应用与梯度下降

监督学习简单来说监督学习模型如图所示其中x是输入变量又叫特征向量 y是输出变量又叫目标向量通常的我们用(x,y)表示一个样本 而第i个样本用(x(i),y(i))表示h是输出函数 监督学习的任务是学习一个模型... 查看详情

[机器学习]—梯度下降法

机器学习中往往需要刻画模型与真实值之间的误差,即损失函数,通过最小化损失函数来获得最优模型。这个最优化过程常使用梯度下降法完成。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小... 查看详情

机器学习回归算法-精讲(代码片段)

回归算法回归算法线性回归和非线性回归:线性回归线性回归方程:损失函数:损失函数推理过程:公式转换:误差公式:转化为`θ`求解:似然函数求`θ`:对数似然:损失函数࿱... 查看详情

ng机器学习视频笔记——线性回归的多变量特征缩放标准方程法

ng机器学习视频笔记(三)——线性回归的多变量、特征缩放、标准方程法 (转载请附上本文链接——linhxx) 一、多变量        当有n个特征值,m个变量时,h(x)=θ0+θ1x1+θ2x2…+θnxn,其中可以... 查看详情

机器学习04-logistic梯度下降算法

logistic回归算法我们将使用Logistic回归分类器来寻找最优值这是一个最优化算法问题。我们在k邻近算法中通过计算给定点到样本集合中所有点的距离,来判断该店所属于的类别,其实我们可以换一种解法,我们可以通... 查看详情

吴恩达机器学习17:正规方程

1.对某些线性回归问题,正规方程给出了更好的解决方法,来求得参数θ,截止到目前我们一直使用线性回归算法是梯度下降法,为了最小化代价函数J(θ),我们使用梯度下降多次迭代,来收敛得到全局的最小值。与此相反的正规... 查看详情

机器学习算法

 机器学习笔记03:Normalequation与梯度下降的比较机器学习笔记02:多元线性回归、梯度下降和Normalequation  查看详情

ng机器学习视频笔记——神经网络的代价函数反向传播梯度检验随机初始化

ng机器学习视频笔记(七)——神经网络的代价函数、反向传播、梯度检验、随机初始化 (转载请附上本文链接——linhxx) 一、代价函数        同其他算法一样,为了获得最优化的神经网络... 查看详情

斯坦福机器学习课程笔记

...模拟)---策略(风险函数)--算法(最优化方法)第一节:机器学习的基本概念和分类第二节:线性回归,最小二乘批梯度下降(bgd)和随机梯度下降(sgd)第三节:过拟合,欠拟合非参数学习算法:局部加权回归概率角度解释线性回归... 查看详情

机器学习100天(十三):013最通俗地理解梯度下降算法

机器学习100天,今天讲的是:最通俗地理解梯度下降算法!一、下山问题梯度下降算法的解释非常简单:局部下降最快的方向就是梯度的负方向!这是我们日常经验得到的,其本质的原因到底是什么呢?也许很多同学还不太清楚... 查看详情