如何使用 scikit 线性回归模型同时求解多个独立的时间序列

     2023-02-23     73

关键词:

【中文标题】如何使用 scikit 线性回归模型同时求解多个独立的时间序列【英文标题】:How to solve several independent time series at the same time using scikit linear regression model 【发布时间】:2016-03-29 22:57:11 【问题描述】:

我尝试使用 sklearn 线性回归模型同时预测多个独立的时间序列,但我似乎无法正确。

我的数据组织如下:Xn 是一个矩阵,其中每行包含 4 个观测值的预测窗口,ynXn 每行的目标值。

import numpy as np

# training data
X1=np.array([[-0.31994,-0.32648,-0.33264,-0.33844],[-0.32648,-0.33264,-0.33844,-0.34393],[-0.33264,-0.33844,-0.34393,-0.34913],[-0.33844,-0.34393,-0.34913,-0.35406],[-0.34393,-0.34913,-.35406,-0.35873],[-0.34913,-0.35406,-0.35873,-0.36318],[-0.35406,-0.35873,-0.36318,-0.36741],[-0.35873,-0.36318,-0.36741,-0.37144],[-0.36318,-0.36741,-0.37144,-0.37529],[-0.36741,-.37144,-0.37529,-0.37896],[-0.37144,-0.37529,-0.37896,-0.38069],[-0.37529,-0.37896,-0.38069,-0.38214],[-0.37896,-0.38069,-0.38214,-0.38349],[-0.38069,-0.38214,-0.38349,-0.38475],[-.38214,-0.38349,-0.38475,-0.38593],[-0.38349,-0.38475,-0.38593,-0.38887]])
X2=np.array([[-0.39265,-0.3929,-0.39326,-0.39361],[-0.3929,-0.39326,-0.39361,-0.3931],[-0.39326,-0.39361,-0.3931,-0.39265],[-0.39361,-0.3931,-0.39265,-0.39226],[-0.3931,-0.39265,-0.39226,-0.39193],[-0.39265,-0.39226,-0.39193,-0.39165],[-0.39226,-0.39193,-0.39165,-0.39143],[-0.39193,-0.39165,-0.39143,-0.39127],[-0.39165,-0.39143,-0.39127,-0.39116],[-0.39143,-0.39127,-0.39116,-0.39051],[-0.39127,-0.39116,-0.39051,-0.3893],[-0.39116,-0.39051,-0.3893,-0.39163],[-0.39051,-0.3893,-0.39163,-0.39407],[-0.3893,-0.39163,-0.39407,-0.39662],[-0.39163,-0.39407,-0.39662,-0.39929],[-0.39407,-0.39662,-0.39929,-0.4021]])

# target values
y1=np.array([-0.34393,-0.34913,-0.35406,-0.35873,-0.36318,-0.36741,-0.37144,-0.37529,-0.37896,-0.38069,-0.38214,-0.38349,-0.38475,-0.38593,-0.38887,-0.39184])
y2=np.array([-0.3931,-0.39265,-0.39226,-0.39193,-0.39165,-0.39143,-0.39127,-0.39116,-0.39051,-0.3893,-0.39163,-0.39407,-0.39662,-0.39929,-0.4021,-0.40506])

按预期工作的单个时间序列的正常过程如下:

from sklearn.linear_model import LinearRegression

# train the 1st half, predict the 2nd half
half = len(y1)/2 # or y2 as they have the same length
LR = LinearRegression()
LR.fit(X1[:half], y1[:half])
pred = LR.predict(X1[half:])
r_2 = LR.score(X1[half:],y1[half:])

但是如何将线性回归模型同时应用于多个独立的时间序列呢? 我尝试了以下方法:

y_stack = np.vstack((y1[None],y2[None]))
X_stack = np.vstack((X1[None],X2[None]))

print 'y1 shape:',y1.shape, 'X1 shape:',X1.shape
print 'y_stack shape:',y_stack.shape, 'X_stack:',X_stack.shape
y1 shape: (16,) X1 shape: (16, 4)
y_stack shape: (2, 16) X_stack: (2, 16, 4)

但是线性模型的拟合失败如下:

LR.fit(X_stack[:,half:],y_stack[:,half:])

说明维度数量高于预期:

C:\Python27\lib\site-packages\sklearn\utils\validation.pyc in check_array(array, accept_sparse, dtype, order, copy, force_all_finite, ensure_2d, allow_nd, ensure_min_samples, ensure_min_features, warn_on_dtype, estimator)
        394         if not allow_nd and array.ndim >= 3:
        395             raise ValueError("Found array with dim %d. %s expected <= 2."
    --> 396                              % (array.ndim, estimator_name))
        397         if force_all_finite:
        398             _assert_all_finite(array)

    ValueError: Found array with dim 3. Estimator expected <= 2.

非常感谢任何建议或提示。

更新

我可以使用 for 循环,但由于 n 实际上是 10000 或更多,我希望找到包含数组操作的解决方案,因为这些是 numpy、scipy 和希望 sklearn 的显式功能

【问题讨论】:

为什么不能将数据视为一组因变量和自变量? @Riyaz 我的数据或每个时间序列彼此不相关,我希望将它们视为一组时一定是这种情况? 是的,回归确实适用于相关性。那你就不能建立两个独立的模型吗? @Riyaz 在这篇文章中我以两个为例,但实际上n 可以在 10000 或更多的范围内 ***.com/q/30442377/1461210的可能重复 【参考方案1】:

@ali_m 我不认为这是一个重复的问题,但它们是部分相关的。 当然,也可以使用类似于 sklearn 的线性回归模型同时应用和预测时间序列:

我创建了一个新类LinearRegression_Multi

class LinearRegression_Multi:
    def stacked_lstsq(self, L, b, rcond=1e-10):
        """
        Solve L x = b, via SVD least squares cutting of small singular values
        L is an array of shape (..., M, N) and b of shape (..., M).
        Returns x of shape (..., N)
        """
        u, s, v = np.linalg.svd(L, full_matrices=False)
        s_max = s.max(axis=-1, keepdims=True)
        s_min = rcond*s_max
        inv_s = np.zeros_like(s)
        inv_s[s >= s_min] = 1/s[s>=s_min]
        x = np.einsum('...ji,...j->...i', v,
                      inv_s * np.einsum('...ji,...j->...i', u, b.conj()))
        return np.conj(x, x)    

    def center_data(self, X, y):
        """ Centers data to have mean zero along axis 0. 
        """
        # center X        
        X_mean = np.average(X,axis=1)
        X_std = np.ones(X.shape[0::2])
        X = X - X_mean[:,None,:] 
        # center y
        y_mean = np.average(y,axis=1)
        y = y - y_mean[:,None]
        return X, y, X_mean, y_mean, X_std

    def set_intercept(self, X_mean, y_mean, X_std):
        """ Calculate the intercept_
        """
        self.coef_ = self.coef_ / X_std # not really necessary
        self.intercept_ = y_mean - np.einsum('ij,ij->i',X_mean,self.coef_)

    def scores(self, y_pred, y_true ):
        """ 
        The coefficient R^2 is defined as (1 - u/v), where u is the regression
        sum of squares ((y_true - y_pred) ** 2).sum() and v is the residual
        sum of squares ((y_true - y_true.mean()) ** 2).sum().        
        """        
        u = ((y_true - y_pred) ** 2).sum(axis=-1)
        v = ((y_true - y_true.mean(axis=-1)[None].T) ** 2).sum(axis=-1)
        r_2 = 1 - u/v
        return r_2

    def fit(self,X, y):
        """ Fit linear model.        
        """        
        # get coefficients by applying linear regression on stack
        X_, y, X_mean, y_mean, X_std = self.center_data(X, y)
        self.coef_ = self.stacked_lstsq(X_, y)
        self.set_intercept(X_mean, y_mean, X_std)

    def predict(self, X):
        """Predict using the linear model
        """
        return np.einsum('ijx,ix->ij',X,self.coef_) + self.intercept_[None].T

可以如下应用,使用与问题中相同的声明变量:

LR_Multi = LinearRegression_Multi()
LR_Multi.fit(X_stack[:,:half], y_stack[:,:half])
y_stack_pred = LR_Multi.predict(X_stack[:,half:])
R2 = LR_Multi.scores(y_stack_pred, y_stack[:,half:])

多个时间序列的 R^2 是:

array([ 0.91262442,  0.67247516])

这确实类似于标准sklearn线性回归的预测方法:

from sklearn.linear_model import LinearRegression

LR = LinearRegression()
LR.fit(X1[:half], y1[:half])
R2_1 = LR.score(X1[half:],y1[half:])

LR.fit(X2[:half], y2[:half])
R2_2 = LR.score(X2[half:],y2[half:])
print R2_1, R2_2
0.912624422097 0.67247516054

【讨论】:

【参考方案2】:

如果您需要构建单独的模型,则不可能使用 numpy 的强大功能来提高性能,因为您有许多不同的任务。您唯一能做的就是在不同的线程中同时运行它们(通过使用 CPU 的多核),甚至将计算拆分到不同的计算机。

如果您认为所有数据都适合同一个模型,那么显而易见的解决方案就是合并所有 Xnyn 并对其进行学习。这肯定会比计算单独的模型更快。

但实际上问题不在于计算性能,而在于您想要得到的结果。如果您需要不同的模型,您别无选择,只需分别计算即可。如果您需要一个模型,只需合并数据。否则,如果您要计算单独的模型,您将遇到问题:如何从所有模型中获取最终参数。

【讨论】:

scikit-learn的线性回归模型

...自http://blog.csdn.net/jasonding1354/article/details/46340729内容概要如何使用pandas读入数据如何使用seaborn进行数据的可视化scikit-learn的线性回归模型和使用方法线性回归模型的评估测度特征选择的方法 作为有监督学习,分类问题是预测... 查看详情

使用 scikit-learn 训练线性回归模型后,如何对原始数据集中不存在的新数据点进行预测?

】使用scikit-learn训练线性回归模型后,如何对原始数据集中不存在的新数据点进行预测?【英文标题】:AftertrainingtheLinearRegressionmodelusingscikit-learn,Howtodopredictionsfornewdatapointswhicharenotthereinoriginaldataset?【发布时间】:2021-03-3001:30:35... 查看详情

在 python 中使用 scikit-learn 线性回归模型时出错

】在python中使用scikit-learn线性回归模型时出错【英文标题】:errorinusingscikit-learnlinearregressionmodelinpython【发布时间】:2015-12-1406:17:38【问题描述】:我正在使用python和ipythonnotebook在此scikit-learnpage上开发LinearRegression模型。我拥有... 查看详情

SciKit Learn - 线性回归背后的数学模型?

...2017-01-0405:03:40【问题描述】:scikit中的LinearRegression函数使用什么数学模型学习?普通最小二乘模型有不止一种方法可以最小化成本函数。我找到了它解决的函数的形式here,但我也对它使用的方法很感兴趣。谁能详细说明?谢谢 查看详情

机器学习系列6使用scikit-learn构建回归模型:简单线性回归多项式回归与多元线性回归(代码片段)

本文所用数据均可免费下载ps:1万多字写了四天,累死我了;如有错别字请评论告诉我。创作不易,恳请四联🥰课前测验目录一、内容介绍二、理论实践1.学习准备①数据准备②运行环境2.提出问题3.线性回归概念... 查看详情

如何使用 Python 和 Scikit 进行线性回归学习使用一种热编码?

】如何使用Python和Scikit进行线性回归学习使用一种热编码?【英文标题】:HowtodolinearregressionusingPythonandScikitlearnusingonehotencoding?【发布时间】:2017-05-1013:31:06【问题描述】:我正在尝试将线性回归与python和scikitlearn结合使用来回... 查看详情

机器学习之回归模型-梯度下降法求解线性回归(代码片段)

...质量是线性关系,就可以写成入下线性的关系:使用梯度下降法求解多元线性回归:其中J为损失函数,对损失函数中的参数求偏导得到梯度,带到梯度下降公式中,使得梯度不断下降,即沿着负梯度方... 查看详情

最小二乘法求解线性回归模型

✅作者简介:热爱科研的算法开发者,Python、Matlab项目可交流、沟通、学习。 查看详情

最小二乘法的多元线性回归(代码片段)

...性模型的最小二乘可以有很多方法来实现,比如直接使用矩阵运算求解析解,sklearn包(参考:用scikit-learn和pandas学习线性回归、用scikit-learn求解多元线性回归问题)&#x 查看详情

用 scikit-learn 拟合向量自回归模型

...【发布时间】:2014-01-0723:57:03【问题描述】:我正在尝试使用scikit-learn中包含的广义线性模型拟合方法来拟合向量自回归(VAR)模型。线性模型有y=Xw的形式,但系统矩阵X有一个非常奇特的结构:它是块对角线,并且所有块都是相... 查看详情

使用线性回归求解两个变量方程

】使用线性回归求解两个变量方程【英文标题】:SolvingforTwoVariableEquationsusingLinearRegression【发布时间】:2020-10-0614:23:59【问题描述】:我有一个使用多个方程求解x和y的问题。我有不同的数据点(在#帧中),如下所示:第1组:10... 查看详情

每次我使用 scikit 运行线性回归时都会得到不同的结果

】每次我使用scikit运行线性回归时都会得到不同的结果【英文标题】:GettingdifferentresulteachtimeIrunalinearregressionusingscikit【发布时间】:2015-04-2418:09:22【问题描述】:您好,我有一个正在尝试优化的线性回归模型。我正在优化指数... 查看详情

R 与 scikit-learn 中用于线性回归 R2 的交叉验证

...了得到模型的训练R2,我做了5折交叉验证(cv)。Python中使用的模型是scikit的LinearRegres 查看详情

挖掘建模

...他变量间相互依赖的定量关系最常用的统计学方法。包括线性回归,非线性回归,Logistic回归,岭回归,主成分回归,偏最小二乘回归等模型决策树决策树采用自顶向下的递归方式,在内部节点进行属性值的比较,并根据不同的... 查看详情

使用 matplotlib 绘制 scikit learn 线性回归结果

...gressionresults【发布时间】:2019-03-0817:28:06【问题描述】:如何在分析后绘制来自scikitlearn的线性回归结果,以在程序结束时查看“测试”数据(实际值与预测值)?下面的代码很接近,但我认为它缺少比例因子。输入:importpandasa... 查看详情

应该如何决定使用线性回归模型还是非线性回归模型

】应该如何决定使用线性回归模型还是非线性回归模型【英文标题】:Howshoulddecideaboutusinglinearregressionmodelornonlinearregressionmodel【发布时间】:2015-04-0611:51:23【问题描述】:?我的目标是预测Y。如果是简单的x和y数据集,我可以通... 查看详情

fit_intercept 参数如何影响 scikit learn 的线性回归

】fit_intercept参数如何影响scikitlearn的线性回归【英文标题】:Howfit_interceptparameterimpactslinearregressionwithscikitlearn【发布时间】:2018-03-1214:57:22【问题描述】:我正在尝试拟合线性模型,并且我的数据集已标准化,其中每个特征都除... 查看详情

6.逻辑回归

...下什么是过拟合和欠拟合?过拟合是在统计模型中,由于使用的参数过多而导致模型对观测数据(训练数据)过度拟合,以至于用该模型来预测其他测试样本输出的时候与实际输出或者期望值相差很大的现象。欠拟合则刚好相反... 查看详情