深度学习基础:2.最小二乘法

zstar-_ zstar-_     2023-01-10     473

关键词:

最小二乘法代数表示方法

假设多元线性方程有如下形式:
f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b f(x) = w_1x_1+w_2x_2+...+w_dx_d+b f(x)=w1x1+w2x2+...+wdxd+b
w = ( w 1 , w 2 , . . . w d ) w = (w_1,w_2,...w_d) w=(w1,w2,...wd) x = ( x 1 , x 2 , . . . x d ) x = (x_1,x_2,...x_d) x=(x1,x2,...xd),则上式可写为
f ( x ) = w T x + b f(x) = w^Tx+b f(x)=wTx+b
多元线性回归的最小二乘法的代数法表示较为复杂,此处先考虑简单线性回归的最小二乘法表示形式。在简单线性回归中,w只包含一个分量,x也只包含一个分量,我们令此时的 x i x_i xi就是对应的自变量的取值,此时求解过程如下

优化目标可写为
S S E = ∑ i = 1 m ( f ( x i ) − y i ) 2 = E ( w , b ) SSE = \\sum^m_i=1(f(x_i)-y_i)^2 = E_(w,b) SSE=i=1m(f(xi)yi)2=E(w,b)
通过偏导为0求得最终结果的最小二乘法求解过程为:
KaTeX parse error: No such environment: align at position 9: \\begin̲a̲l̲i̲g̲n̲̲ \\frac\\partial…

KaTeX parse error: No such environment: align at position 9: \\begin̲a̲l̲i̲g̲n̲̲ \\frac\\partial…

求得:
w = ∑ i = 1 m y i ( x i − x ˉ ) ∑ i = 1 m x i 2 − 1 m ( ∑ i = 1 m x i ) 2 w = \\frac\\sum^m_i=1y_i(x_i-\\barx) \\sum^m_i=1x^2_i-\\frac1m(\\sum^m_i=1x_i)^2 w=i=1mxi2m1(i=1mxi)2i=1myi(xixˉ)

b = 1 m ∑ i = 1 m ( y i − w x i ) b = \\frac1m\\sum^m_i=1(y_i-wx_i) b=m1i=1m(yiwxi)

#最小二乘法的矩阵表示形式

设多元线性回归方程为:
f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b f(x) = w_1x_1+w_2x_2+...+w_dx_d+b f(x)=w1x1+w2x2+...+wdxd+b

w ^ = ( w 1 , w 2 , . . . , w d , b ) \\hat w = (w_1,w_2,...,w_d,b) w^=(w1,w2,...,wd,b)

x ^ = ( x 1 , x 2 , . . . , x d , 1 ) \\hat x = (x_1,x_2,...,x_d,1) x^=(x1,x2,...,xd,1)


f ( x ) = w ^ ∗ x ^ T f(x) = \\hat w * \\hat x^T f(x)=w^x^T
有多个y值,则所有x值可以用矩阵X进行表示:
X = [ x 11 x 12 . . . x 1 d 1 x 21 x 22 . . . x 2 d 1 . . . . . . . . . . . . 1 x m 1 x m 2 . . . x m d 1 ] X = \\left [\\beginarraycccc x_11 &x_12 &... &x_1d &1 \\\\ x_21 &x_22 &... &x_2d &1 \\\\ ... &... &... &... &1 \\\\ x_m1 &x_m2 &... &x_md &1 \\\\ \\endarray\\right] X=x11x21...xm1查看详情

机器学习基础---线性回归(linearregression)

内容简介符号说明一、线性回归(最小二乘法及其几何意义)1、矩阵表达下的最小二乘法2、最小二乘法的几何意义二、线性回归(最小二乘法-概率视角-高斯噪声-MLE)三、线性回归(正则化-岭回归)四、线性... 查看详情

机器学习-最小二乘法

一、引言这段时间学习《机器学习》,学到第5章的“Logistic回归”,感觉相当吃力。追本溯源,从“Logistic回归”到“线性回归”,再到“最小二乘法”。最终定格到了《高等数学》(第六版·下册)第九章第10节“最小二乘法”... 查看详情

最小二乘法小结

...二乘法是用来做函数拟合或者求函数极值的方法。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影,这里就对我对最小二乘法的认知做一个小结。  1.最小二乘法的原理与要解决的问题     最小二乘法... 查看详情

最小二乘法小结

...二乘法是用来做函数拟合或者求函数极值的方法。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影,这里就对我对最小二乘法的认知做一个小结。1.最小二乘法的原理与要解决的问题     最小二乘法是由... 查看详情

01_有监督学习--简单线性回归模型(最小二乘法代码实现)(代码片段)

有监督学习--简单线性回归模型(最小二乘法代码实现)0.引入依赖1.导入数据(data.csv)2.定义损失函数3.定义模型拟合函数4.测试:运行最小二乘算法,计算w和b5.画出拟合曲线6.附录-测试数据有监督学习--简单线性回归模型(最... 查看详情

深度学习的优化算法

...算法1阶优化算法2阶优化算法具体定义和缺陷如下:针对深度学习以一阶的优化算法为主为主线0阶优化算法:该算法仅仅需要因变量的数值,而不需要导数信息。因变量通过最小二乘法的拟合值近似,而约束极小化问题用罚函数... 查看详情

最小二乘法思想

...通过将理论值与预测值的距离的平方和达到最小。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影。最小二乘法的原理与要解决的问题最小二乘法的形式如下式所示:[目标函数=sum(理论值-预测值)^2]理论值是... 查看详情

机器学习白板,最小二乘法,线性回归,矩阵表达

机器学习-白板推导系列(三)-线性回归(LinearRegression)_哔哩哔哩_bilibili目录最小二乘法,线性回归 几何意义讲解 查看详情

机器学习线性回归——最小二乘法的几何意义

查看详情

最小二乘法学习(分享自其他博主)

...型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一... 查看详情

机器学习线性回归——最小二乘法(理论+图解+公式推导)

查看详情

机器学习之用python实现最小二乘法预测房价,进行额度预测

使用最小二乘法进行房价预测:给定训练样本集合如下:求解:当房屋面积为55平方时,租赁价格是多少?给出代码与运行结果图。首先明白什么是最小二乘法,利用最小二乘法公式p=(X^TX)^-1X^TYimportnumpyasnpfromnumpyimportmatimportmatplot... 查看详情

原创算法分享最小二乘法

...提到最小二乘法要先提到拟合,拟合Fitting是数值分析的基础工具之一,在二维平面上分为直线拟合和曲线拟合,直线拟合找到一条直线尽可能穿过所有的点,注意这里是尽可能,因为只要超过2个点,就有可能发生直线不能精确... 查看详情

数模学习——最小二乘法

最小二乘法一、什么是最小二乘法最小二乘法作为一种数学优化技术,通过最小化误差的平方和寻找数据的最佳函数匹配。(重点:寻找匹配函数)以身高体重为例,我们有这样的生活常识,在无系统误差的情况下,身高与体重... 查看详情

《机器学习——数学公式推导合集》1.最小二乘法(leastsquaremethod)求解线性模型

1.1什么是最小二乘法(leastsquaremethod)最小二乘法:基于均方误差最小化来进行模型求解的方法称为“最小二乘法(leastsquaremethod)”。1.2线性模型(linearmodel)基本形式线性模型(linearmodel)试... 查看详情

《机器学习——数学公式推导合集》1.最小二乘法(leastsquaremethod)求解线性模型

1.1什么是最小二乘法(leastsquaremethod)最小二乘法:基于均方误差最小化来进行模型求解的方法称为“最小二乘法(leastsquaremethod)”。1.2线性模型(linearmodel)基本形式线性模型(linearmodel)试... 查看详情

最小二乘法的两个观点

...优化问题线性代数角度的近似解写在最后写在前面之前在学习《机器学习基石》的线性回归章节的时候,林老师在最后的部分给了最小二乘的另一种观点当时很不理解。之后在《线性代数及其应用》的目录上看到最小二乘法... 查看详情