《统计学习方法》--逻辑斯谛回归模型(代码片段)

兜里有糖心里不慌 兜里有糖心里不慌     2023-02-23     125

关键词:

《统计学习方法》第六章–逻辑斯谛回归模型

逻辑斯谛回归概述

逻辑斯谛回归的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。这里的“回归”一词源于最佳拟合,表示要找到最佳拟合参数。而最佳拟合参数就是在训练分类器时,通过最优化算法获得。

逻辑斯谛分布

X X X是连续随机变量, X X X服从逻辑斯谛分布是指 X X X具有以下分布函数和概率密度函数: F ( x ) = P ( X ≤ x ) = 1 1 + e − ( x − μ ) / γ F(x)=P(X\\leq x)=\\frac11+e^-(x-\\mu)/\\gamma F(x)=P(Xx)=1+e(xμ)/γ1 f ( x ) = F ′ ( x ) = e − ( x − μ ) / γ γ ( 1 + e − ( x − μ ) / γ ) 2 f(x)=F'(x)=\\frace^-(x-\\mu)/\\gamma\\gamma(1+e^-(x-\\mu)/\\gamma)^2 f(x)=F(x)=γ(1+e(xμ)/γ)2e(xμ)/γ其中 μ \\mu μ为位置参数, γ > 0 \\gamma \\gt 0 γ>0为形状参数

二项式逻辑斯谛回归模型

P ( Y = 1 ∣ x ) = e x p ( ω ⋅ x + b ) 1 + e x p ( ω ⋅ x + b ) P(Y=1|x) = \\fracexp(\\omega\\cdot x+b)1+exp(\\omega\\cdot x+b) P(Y=1x)=1+exp(ωx+b)exp(ωx+b) P ( Y = 0 ∣ x ) = 1 1 + e x p ( ω ⋅ x + b ) P(Y=0|x) = \\frac11+exp(\\omega\\cdot x+b) P(Y=0x)=1+exp(ωx+b)1
这里 x ∈ R n x\\in R^n xRn是输入, Y ∈ 0 , 1 Y\\in\\0,1\\ Y0,1是输出, ω ∈ R n \\omega\\in R^n ωRn b ∈ R n b\\in R^n bRn是参数, ω \\omega ω称为权值向量, b b b称为偏置, ω ⋅ x \\omega\\cdot x ωx ω \\omega ω X X X的內积

对于给定的输入实例 X X X,按照上式可以求得实例属于两种类别的概率,逻辑斯谛回归模型比较两个概率的大小,将实例归入概率较大的那一类中。

模型参数估计

对于给定的训练数据集 T = ( x 1 , y 1 ) , ( x 2 , y 2 ) . . . ( x N , y N ) T=\\(x_1,y_1),(x_2,y_2)...(x_N,y_N)\\ T=(x1,y1),(x2,y2)...(xN,yN)其中 x i ∈ R n , y i ∈ 0 , 1 x_i\\in R^n,y_i\\in \\0,1\\ xiRn,yi0,1可以应用极大似然估计来得到模型的参数,从而得到逻辑斯谛回归模型。

P ( Y = 1 ∣ x ) = π ( x ) , P ( Y = 0 ∣ x ) = 1 − π ( x ) P(Y=1|x)=\\pi(x),P(Y=0|x)=1-\\pi(x) P(Y=1x)=π(x),P(Y=0x)=1π(x)则可得似然函数 ∏ i = 1 N [ π ( x i ) ] y i [ 1 − π ( x i ) ] 1 − y i \\prod_i=1^N[\\pi(x_i)]^y_i[1-\\pi(x_i)]^1-y_i i=1N[π(xi)]yi[1π(xi)]1yi对数似然函数为: L ( ω ) = ∑ i = 1 N [ y i log ⁡ π ( x ) + ( 1 − y i log ⁡ ( 1 − π ( x i ) ) ) ] L(\\omega)=\\sum_i=1^N[y_i\\log\\pi(x)+(1-y_i\\log(1-\\pi(x_i)))] L(ω)=i=1N[yilogπ(x)+(1yilog(1π(xi)))]即最终变成求解 L ( ω ) L(\\omega) L(ω)极大值的问题。一般可以采用梯度下降或者是拟牛顿法求解

最后求出 ω \\omega ω的极大似然估计值即可得到逻辑斯谛回归模型。

多项式逻辑斯谛回归

二项式逻辑斯谛回归应用于二类分类问题,将其推广到多项式逻辑斯谛回归就可以应用于多类分类问题。

假设离散型随机变量 Y Y Y的取值集合是 1 , 2 , . . . , K \\1,2,...,K\\ 1,2,...,K则多项式逻辑斯谛回归模型是 P ( Y = k ∣ x ) = exp ⁡ ( ω k ⋅ x ) 1 + ∑ k = 1 K − 1 exp ⁡ ( ω k ⋅ x ) , k = 1 , 2 , 3... , K − 1 P(Y=k|x)=\\frac\\exp(\\omega_k\\cdot x)1+\\sum_k=1^K-1\\exp(\\omega_k \\cdot x), k=1,2,3...,K-1 P(Y=kx)=1+k=1K1exp(ωkx)exp(ωk李航统计学习方法(第二版):逻辑斯谛回归

1简介逻辑斯谛回归(logisticregression)是统计学习中的经典分类方法。最大嫡是概率模型学习的一个准则,将其推广到分类问题得到最大嫡模型(maximum entropy model)。逻辑斯谛回归模型与最大嫡模型都属于对数线性模型。2模型2.... 查看详情

统计学习六:1.对数线性模型之逻辑回归

全文引用自《统计学习方法》(李航)本节介绍的对数线性模型,主要包括逻辑斯谛回归(logisticregression)模型以及最大熵模型(maximumentropymodel)。逻辑斯谛回归模型是统计学中十分经典的分类方法,而最大熵是概率学习中的一个准... 查看详情

逻辑斯谛回归与最大熵模型-《统计学习方法》学习笔记

 0.概述:Logistic回归是统计学中的经典分类方法,最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型,logistic回归模型与最大熵模型都是对数线性模型。本文第一部分主要讲什么是logistic(逻辑斯谛)回... 查看详情

统计学习方法 李航 逻辑斯谛回归与最大熵模型

介绍了分布函数和概率密度,函数特点.这里的逻辑斯谛回归模型就是为了将实数范围映射到(0,1)范围上.即将线性函数外套上sigmoid函数.https://blog.csdn.net/hfutxiaoguozhi/article/details/78843932这篇博客对此解释非常好.既然已经有了... 查看详情

逻辑斯谛回归,softmax回归与最大熵模型

逻辑斯谛回归(logisticregression)是统计学习中的经典分类方法最大熵是概率模型学习的一个准则,被推广到分类问题后可得到最大熵模型(MaximumEntropyModel)逻辑斯谛回归模型与最大熵模型都属于对数线性模型,而对数线性模型又是广... 查看详情

李航统计学习方法chapter6逻辑斯蒂回归

第6章逻辑斯蒂回归和最大熵模型逻辑斯谛回归(LR)是经典的分类方法1.逻辑斯谛回归模型是由以下条件概率分布表示的分类模型。逻辑斯谛回归模型可以用于二类或多类分类。P(Y=k∣x)=exp⁡(wk⋅x)1+∑k=1K−1exp⁡(wk... 查看详情

李航统计学习方法chapter6最大熵模型

第6章逻辑斯蒂回归和最大熵模型逻辑斯谛回归(LR)是经典的分类方法1.逻辑斯谛回归模型是由以下条件概率分布表示的分类模型。逻辑斯谛回归模型可以用于二类或多类分类。P(Y=k∣x)=exp⁡(wk⋅x)1+∑k=1K−1exp⁡(wk... 查看详情

机器学习一般线性回归(代码片段)

...归应该是我们听过次数最多的机器学习算法了。在一般的统计学教科书中,最后都会提到这种方法。因此该算法也算是架起了数理统计与机器学习之间的桥梁。线性回归虽然常见,但是却并不简单。该算法中几乎包含了所有有监... 查看详情

统计学习方法[6]——逻辑回归模型

统计学习方法由三个要素组成:方法=模型+策略+算法模型是针对具体的问题做的假设空间,是学习算法要求解的参数空间。例如模型可以是线性函数等。策略是学习算法学习的目标,不同的问题可以有不同的学习目标,例如经验... 查看详情

lesson4.1逻辑回归模型构建与多分类学习方法(代码片段)

文章目录一、广义线性模型(Generalizedlinermodel)的基本定义二、对数几率模型与逻辑回归1.对数几率模型(logitmodel)2.逻辑回归与Sigmoid函数3.Sigmoid函数性质三、逻辑回归模型输出结果与模型可解释性四、多分类学... 查看详情

逻辑回归|机器学习|分类算法(代码片段)

目录1.逻辑回归1.1逻辑回归原理1.2sigmoid函数2.相关代码2.1LogisticsRegression类2.2求解代码2.3输出结果3.直接调库使用1.逻辑回归1.1逻辑回归原理∙\\bullet∙逻辑回归又叫对数几率回归,是一种对数几率模型,可以求解二分类问... 查看详情

用二项逻辑斯蒂回归解决二分类问题(代码片段)

逻辑斯蒂回归:逻辑斯蒂回归是统计学习中的经典分类方法,属于对数线性模型。logistic回归的因变量可以是二分类的,也可以是多分类的基本原理logistic分布折X是连续的随机变量,X服从logistic分布是指X具有下列分布函数和密度... 查看详情

逻辑斯谛回归

逻辑斯谛分布设X是连续随机变量,X服从逻辑斯谛分布是指X服从如下分布函数和密度函数: 其中,为位置参数,>0为形状参数。密度函数f(x)和分布函数F(x)的图形如图所示: 分布函数属于逻辑斯谛函数,其图形是一... 查看详情

逻辑回归基础梳理(代码片段)

1.逻辑回归  逻辑回归就是这样的一个过程:面对一个回归或者分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数,然后测试验证我们这个求解的模型的好坏。Logistic回归虽然名字里带“回归”,但是它... 查看详情

统计学习方法五逻辑回归分类

逻辑回归分类1,概念  2,算法流程      3,多分类逻辑回归  4,逻辑回归总结 优点:1)预测结果是界于0和1之间的概率;2)可以适用于连续性和类别性自变量;3)容易使用和解释;缺点:1)对模型中自变量多... 查看详情

机器学习逻辑回归(代码片段)

逻辑回归原理逻辑回归模型逻辑回归模型(LR)是判别模型,可以用于二分类或多分类,模型如下:二分类: $$P(Y=1|x)=fracexpleft(wcdotxight)1+expleft(wcdotxight)$$$$P(Y=0|x)=frac11+expleft(wcdotxight)$$ 多分类: $$P(Y=k|x)=fracexpleft(w_kcdotx... 查看详情

逻辑斯谛回归

hypothesis逻辑斯蒂回归的模型假设是在线性回归的基础上加了一个激活层:[h(x)=frac11+e^- heta^Tx]如此我们就可以将线性回归值映射到((0,1))上。关于这个模型输出值,我们可以这么理解(P(y^(i)=1|x^(i))=h(x^(i)))。为什么不是(P(y^(i)=0|x^(i)))... 查看详情

机器学习笔记:大话线性回归(代码片段)

...预测相应的y值。这很符合我们正常逻辑,不难理解。那统计学中的线性回归是如何解释的呢?对于统计模型线性回归,我想从以下六个方面来展 查看详情