【问题标题】:Difference between Ordinary Least Squares and R square (Coefficient of determination)?普通最小二乘和 R 平方(确定系数)之间的区别?
【发布时间】:2019-11-20 15:11:46
【问题描述】:

*嗨,

有人能指出普通最小二乘和 R 平方(确定系数)之间的区别吗? 他们似乎与我非常相似,都在计算估计值和实际值之间的差异,求和然后平方。也许我弄错了。有什么建议吗?*

【问题讨论】:

    标签: statistics data-science


    【解决方案1】:

    普通最小二乘法是一种回归方法,R-squared 是一种度量标准,表示因变量在回归模型中由一个或多个自变量解释的程度。

    例如,如果您将人均 GDP(您的因变量)与一系列国家/地区的工业化水平(自变量)相关联,并且您的回归得出的 R 平方为 0.89,这意味着工业化解释了 GDP 的 89%人均。

    决定系数最一般的定义是

    R 平方 = 1 - (SSRes / SSTot),其中:

    SSRes 是回归平方和,也称为解释和 正方形

    SSTot 是平方和

    来源:https://en.wikipedia.org/wiki/Coefficient_of_determination

    OLS 回归涉及矩阵代数,在这里演示对我来说有点复杂(尽管我不是这方面的专家)。请检查以供参考: https://en.wikipedia.org/wiki/Ordinary_least_squares#Matrix/vector_formulation

    这里重要的是让您了解 OLS 和 R-squared 是两个不同的东西。您进行回归以将一个因变量与许多自变量相关联,并使用 R 平方来查看此回归是否有意义。

    【讨论】:

    • 您能指出两者的计算方式有什么不同吗?
    • 我的回答做了一些改动
    【解决方案2】:

    OLS 回归将在双变量模型的背景下进行讨论,即只有一个自变量 (X) 预测因变量 (Y) 的模型。

    R^2 平方将用于评估我们构建的模型解释的方差。

    【讨论】:

      猜你喜欢
      • 2021-08-14
      • 1970-01-01
      • 1970-01-01
      • 2019-10-05
      • 2011-02-21
      • 2017-07-13
      • 2015-04-13
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多