机器学习算法---逻辑回归及梯度下降

God_Li God_Li     2022-11-11     606

关键词:

一、逻辑回归简介

  logistic回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。

  logistic回归是一种广义线性回归(generalized linear model),因此与多重线性回归分析有很多相同之处。

  其公式如下:

        

  其图像如下:

        

  我们通过观察上面的图像可以发现,逻辑回归的值域为(0, 1),当输入为0时,其输出为0.5;当输入小于0,并且越来越小时,其输出越来越接近于0;相反的,当其输入大于0,并且越来越大时,其输出越来越接近于1。

  通常我们使用线性回归来预测值,但逻辑回归随有“回归”二字,却通常是用来解决二分类问题的。

  当其输出大于0.5时,我们可以认为该样本属于甲类;小于0.5时,认为该样本属于已类。

  但是由于一个样本数据通常会有多个特征,我们不能将其直接带入logistic回归公式中,所以,就需要借助之前所介绍的线性回归,使该样本的多个特征值生成一个特定的值,在带入公式中,对其分类,所以z的表达式如下:

    

  即可得到对于一个数据关于逻辑回归的详细表达式:

    

  通过上式,我们就可以对一个任意数据进行逻辑回归分析了,但是这当中存在一个问题,即关于θ的取值,只有公式中的θ已知,我们才能对一个未分类的数据运用此公式,那么该如何求得θ呢?

请看下面的公式推导。

二、Logistic Regression公式推导

  在上面,我们得到  后,需要求得θ,关于如何求得θ,将在此进行详细分析。

  通常在机器学习中,我们常常有一个过程叫训练,所谓训练,即通过已知分类(或标签)的数据,求得一个模型(或分离器),然后使用这个模型对未知标签的数据打上标签(或者对其进行分类)。

  所以,我们使用样本(即已知分类的数据),进行一系列的估算,得到θ。这个过程在概率论中叫做参数估计。

  在此,我们将使用极大似然估计的推导过程,求得关于计算θ的公式:

    (1) 首先我们令:

      

    (2) 将上述两式整合:

        

    (3) 求其似然函数:

      

    (4) 对其似然函数求对数:

       

    (5) 当似然函数为最大值时,得到的θ即可认为是模型的参数。求似然函数的最大值,我们可以使用一种方法,梯度上升,但我们可以对似然函数稍作处理,使之变为梯度下降,然后使用梯度下降的思想来求解此问题,变换

  的表达式如下:

       (由于乘了一个负的系数,所以梯度上升变梯度下降。)

    (6) 因为我们要使用当前的θ值通过更新得到新的θ值,所以我们需要知道θ更新的方向(即当前θ是加上一个数还是减去一个数离最终结果近),所以得到J(θ)后对其求导便可得到更新方向(为什么更新方向这么求?以及得到更新方向后为什么按照下面的式子处理?请看下方的梯度下降公式的演绎推导),求导过程如下:

      

    (7) 得到更新方向后便可使用下面的式子不断迭代更新得到最终结果。

        

三、梯度下降公式的演绎推导

  关于求解函数的最优解(极大值和极小值),在数学中我们一般会对函数求导,然后让导数等于0,获得方程,然后通过解方程直接得到结果。但是在机器学习中,我们的函数常常是多维高阶的,得到导数为0的方程后很难直接求解(有些时候甚至不能求解),所以就需要通过其他方法来获得这个结果,而梯度下降就是其中一种。

  对于一个最简单的函数:, 我们该如何求出y最小是x的值呢(不通过解2x = 0的方法)?  

    (1) 首先对x任取一个值,比如x = -4,可以得到一个y值。  

    (2) 求得更新方向(如果不求更新方向对x更新,比如x-0.5,或x+0.5,得到图像如下)。

      可以发现,我们如果是向负方向更新x,那么我就偏离了最终的结果,此时我们应该向正方向更新,所以我们在对x更新前需要求得x的更新方向(这个更新方向不是固定的,应该根据当前值确定,比如当x=4时,应向负方向更新)

      求其导函数在这一点的值,y\' = 2x,x = -4, y\' = -8,那么它的更新方向就是y\',对x更新我们只需x:=x-α·y\'(α(大于0)为更新步长,在机器学习中,我们叫它学习率)。

      PS:之前说了是多维高阶方程,无法求解,而不是不能对其求导,所以可以对其求导,然后将当前x带入。

    (3) 不断重复之前的(1),(2)步,直到x收敛。

  

  梯度下降方法:

    对于这个式子,如果:

      (1) m是样本总数,即每次迭代更新考虑所有的样本,那么就叫做批量梯度下降(BGD),这种方法的特点是很容易求得全局最优解,但是当样本数目很多时,训练过程会很慢。当样本数量很少的时候使用它。

      (2)当m = 1,即每次迭代更新只考虑一个样本,公式为,叫做随机梯度下降(SGD),这种方法的特点是训练速度快,但是准确度下降,并不是全局最优。比如对下列函数(当x=9.5时,最终求得是区部最优解):

      (3) 所以综上两种方法,当m为所有样本数量的一部分(比如m=10),即我们每次迭代更新考虑一小部分的样本,公式为,叫做小批量梯度下降(MBGD),它克服了上述两种方法的缺点而又兼顾它们的优点,在实际环境中最常被使用。

 

机器学习入门-逻辑回归算法(代码片段)

梯度下降:对theta1,theta2,theta3分别求最快梯度下降的方向,然后根据给定的学习率,进行theta1,theta2,theta3的参数跟新假定目标函数J(theta)=1/2m*np.sum(h(theta)-y)^2/len(X)梯度下降的策略分为3种,   批量梯度下降:每次迭... 查看详情

机器学习100天(十七):017逻辑回归梯度下降

机器学习100天,今天讲的是:逻辑回归-梯度下降!在讲解了逻辑回归的基本原理和损失函数之后,我们来推导逻辑回归模型中参数w和b的梯度表达式。我们之前介绍过,计算逻辑回归的代价函数实际上包含了下面三个过程:Z=WTX+... 查看详情

机器学习100天(十七):017逻辑回归梯度下降

机器学习100天,今天讲的是:逻辑回归-梯度下降!在讲解了逻辑回归的基本原理和损失函数之后,我们来推导逻辑回归模型中参数w和b的梯度表达式。我们之前介绍过,计算逻辑回归的代价函数实际上包含了下面三个过程:Z=WTX+... 查看详情

机器学习入门:线性回归及梯度下降

机器学习入门:线性回归及梯度下降  本文会讲到:   (1)线性回归的定义 (2)单变量线性回归 (3)costfunction:评价线性回归是否拟合训练集的方法 (4)梯度下降:解决线性回归的方法之一 (5)featurescali... 查看详情

机器学习100天(十四):014梯度下降算法求解线性回归

机器学习100天,今天讲的是:使用梯度下降算法求解线性回归问题。一、梯度下降更新公式之前我们介绍了正规方程法直接求解线性回归问题,但是梯度下降算法在机器学习中更为常用,因为面对复杂问题时,梯度下降算法能够... 查看详情

机器学习100天(十四):014梯度下降算法求解线性回归

机器学习100天,今天讲的是:使用梯度下降算法求解线性回归问题。一、梯度下降更新公式之前我们介绍了正规方程法直接求解线性回归问题,但是梯度下降算法在机器学习中更为常用,因为面对复杂问题时,梯度下降算法能够... 查看详情

机器学习入门:线性回归及梯度下降

http://blog.csdn.net/xiazdong/article/details/7950084本文会讲到: (1)线性回归的定义(2)单变量线性回归(3)costfunction:评价线性回归是否拟合训练集的方法(4)梯度下降:解决线性回归的方法之一(5)featurescaling:加快梯度下降执行速度的方... 查看详情

机器学习算法(优化)之一:梯度下降算法随机梯度下降(应用于线性回归logistic回归等等)

本文介绍了机器学习中基本的优化算法—梯度下降算法和随机梯度下降算法,以及实际应用到线性回归、Logistic回归、矩阵分解推荐算法等ML中。梯度下降算法基本公式常见的符号说明和损失函数X :所有样本的特征向量组成的... 查看详情

机器学习p6逻辑回归的损失函数以及梯度下降(代码片段)

逻辑回归的损失函数以及梯度下降逻辑回归的损失函数逻辑回归的Loss逻辑回归的Cost逻辑回归的梯度下降总公式推导公式梯度下降动画效果展示Reference逻辑回归的损失函数逻辑回归的Loss逻辑回归是一种用于二分类问题的监督学习... 查看详情

吴恩达机器学习学习笔记——2.7第一个学习算法=线性回归+梯度下降

梯度下降算法:              线性回归模型:      线性假设:                     平方差成本函数:将各个公式代入,对θ0、θ1分别求偏导得:再将偏导数代入梯度下降算法... 查看详情

正规方程,梯度下降,岭回归——机器学习(代码片段)

线性回归一.介绍1.1线性回归API介绍——LinearRegression二.线性回归的损失和优化2.1全梯度下降算法(FG)2.2随机梯度下降算法(SG)2.3小批量梯度下降算法(mini-batch)2.4随机平均梯度下降算法(SAG)三... 查看详情

机器学习梯度下降法(超详解)

...比较和进一步优化5.1算法比较5.2梯度下降优化算法前言在机器学习】线性回归的损失和优化中介绍了最基本的梯度下降 查看详情

第五篇[机器学习]机器学习,逻辑回归comeon

 逻辑回归,简单的说,就是用sigmoid函数把连续函数归一化转化成离散的几个可能的结果。逻辑回归的算法最大似然法: 我自己的理解,最大似然法就是在你观测到某一系列事件出现的可能性之后,倒推该事件最可能的... 查看详情

回归问题及应用

...义与问题引入损失函数梯度下降与正则化线性回归有监督学习=>学习样本为D=(xi,yi)Ni=1多变量情形:损失函数lossfunction:梯度下降:其中α为步长,很大->震荡;很小->耗时太长过拟合与欠拟合:正则化:逻辑回归此图像和函... 查看详情

斯坦福机器学习课程笔记

...模拟)---策略(风险函数)--算法(最优化方法)第一节:机器学习的基本概念和分类第二节:线性回归,最小二乘批梯度下降(bgd)和随机梯度下降(sgd)第三节:过拟合,欠拟合非参数学习算法:局部加权回归概率角度解释线性回归... 查看详情

python逻辑回归(logisticregressionlr)底层代码实现bgd梯度下降算法softmax多分类

...化参考前言逻辑回归模型(LogisticRegressionModel)是机器学习领域著名的分类模型。其常用于解决二分类(BinaryClassification)问题。但是在现实工作/学习/项目中,我们要解决的问题是经常多分类(MulticlassClass... 查看详情

机器学习模型和算法(代码片段)

文章目录python简介python基本语法监督学习--回归模型线性回归模型一元线性回归线性回归最小二乘代码实现多元线性回归梯度下降法和最小二乘法相比线性回归梯度下降代码实现非线性回归python简介略python基本语法文件开头加上#... 查看详情

机器学习梯度下降算法的实现及过程分析

机器学习(一)梯度下降算法    因为算法最好能应用到实际问题中才会让读者感到它的真实的用处,因此首先我来描述一个实际问题(梯度下降算法用以帮助解决该问题):给定一个指定的数据集,比如由若干某... 查看详情