【问题标题】:R: Linear Regression with N FeaturesR:具有 N 个特征的线性回归
【发布时间】:2020-05-19 08:42:21
【问题描述】:

我看到了很多如何进行回归的示例(线性、多重...等),但在我看到的每个示例中,您都必须定义公式中的每一个特征...

linearMod <- lm(Y ~ x1 + x2 + x3 + ..., data=myData)

好吧,我们使用 TSFresh 来生成更多特征。大约100。那我现在应该怎么做呢?我真的不想输入 x1 .. 一直到 .. x100。 在 Phyton scikit-learn 中,我可以输入所有数据:

lm = linear_model.LinearRegression()
model = lm.fit(X,y)

然后对每个“特征组”重复此操作以创建多元线性回归。

有没有办法在 R 中做到这一点?还是我做错了?也许是另一种方法?

最初我们每行有 8 个特性/属性。有了 TSFresh,我们产生了更多这样的东西。 (平均值、标准差等)

这些特征中的每一个对 Y 结果都有相当线性的影响。那么我现在如何定义像只使用所有扩展特征的多重线性模型?理想情况下,我不必每次都手动告诉它。

例如(一个公式可能是 Y 的特征 1-12)下一个(Y 的 13-24)等等。有没有简单的方法可以做到这一点?

【问题讨论】:

    标签: r machine-learning linear-regression


    【解决方案1】:

    如果你想回归除Y 之外的所有变量,你可以这样做

    lm(Y ~ ., data = myData)
    

    【讨论】:

    • 我试过了,然后我得到:model.frame.default 中的错误(formula = diff ~ ., data = data_for_prediction, : Object is not a matrix.(我正在使用数据框,可能这是个问题吗?
    • data_for_prediction
    • 例如,考虑数据框mtcars:lm(mpg ~ ., data = mtcars)。在输出中,您会看到每个变量 except mpg 都用作回归中的自变量。如果不知道您的数据,我真的无法提供更具体的反馈。
    猜你喜欢
    • 2018-01-02
    • 2021-05-14
    • 2017-10-24
    • 2020-05-27
    • 1970-01-01
    • 2020-03-09
    • 1970-01-01
    • 2019-04-07
    • 1970-01-01
    相关资源
    最近更新 更多