【问题标题】:Is there any algorithm that can predict multi-variables(response variables) based on one independent variable是否有任何算法可以基于一个自变量预测多变量(响应变量)
【发布时间】:2015-09-23 23:51:46
【问题描述】:

让我用一个例子详细地问这个问题:

我有一个包含列 (a,b,c,d,e,f,g) 的历史数据集

现在我必须根据 'a' 的值来预测 (b,c,d,e,f,g)。

只需将 a,b,c,d,e,f,g 替换为真实世界的示例即可。

考虑一个数据集,其中包含自行车租赁店一天的收入,该收入基于租赁数量和每小时的租赁成本。

现在我的目标是预测每月的租金数量和每小时的成本,以达到我的收入目标 5 万美元。

这可以吗?只是需要一些指导来了解如何做到这一点

【问题讨论】:

  • 是的,可以做到。这个问题很可能会因为过于宽泛而被关闭/删除。一种方法是多项逻辑回归。也许尝试在 CrossValidated 上发帖。
  • 请给我们一个示例数据,以及迄今为止您尝试过的数据。 Here's 一篇好帖子的概述。
  • @JasonAizkalns 真的适合这里的多项逻辑回归吗?假设 b/c/d/e/f/g 是自变量,而不是一个变量的类别。我认为除了单独预测每个变量之外,没有什么可以在数学上完成的,对吧?只是直觉地思考
  • 考虑一下,你有一个数据集,它表示自行车租赁店一天的收入基于租赁数量,每小时的租金成本。现在我的目标是预测每月的租金数量和每小时的成本,以达到我 5 万美元的收入目标?
  • 这无法完成。 5 万美元太多了!

标签: r algorithm prediction cross-validation


【解决方案1】:

你基本上是想最大化:

P(B|A)*P(C|A,B)*P(D|A,B,C)*P(E|A,B,C,D)*P(F|A,B,C,D,E)*P(G|A,B,C,D,E,F)

如果数据 B,C,D,E,F,G 都是 i.i.d. (但确实取决于A)您基本上是在尝试最大化:

P = P(B|A)*P(C|A)*P(D|A)*P(E|A)*P(F|A)*P(G|A)

解决它的一种方法是使用Supervised Learning

用你的历史数据训练一组classifiers(或regressors,取决于B、C、D、E、F、G的值):A->B, A->C ... A->G,当给出某个值的查询时a,使用所有分类器/回归器来预测 b,c,d,e,f,g 的值。

“诀窍”是为多个输出使用多个学习器。请注意,在 I.I.D 因变量的情况下,这样做不会有任何损失,因为分别最大化每个 P(Z|A) 也会最大化 P


如果数据不是 iid,则最大化P(B|A)*P(C|A,B)*P(D|A,B,C)*P(E|A,B,C,D)*P(F|A,B,C,D,E)*P(G|A,B,C,D,E,F) 的问题是NP-Hard,并且可以从Hamiltonian-Path Problem 减少(P(X_i|X_i-1,...,X_1) > 0 如果存在边(X_i-1,X_i),则寻找非零路径)。

【讨论】:

  • 谢谢阿米特,我已经用一个例子编辑了我的问题!可以请您看一下吗!
【解决方案2】:

这是一个典型的分类问题,一个简单的例子是“if a>0.5 then b=1 and c=0 ... while if a

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2013-01-30
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2012-04-04
    • 2016-04-25
    • 1970-01-01
    • 2019-01-07
    相关资源
    最近更新 更多