【发布时间】:2020-07-03 05:11:03
【问题描述】:
我正在尝试理解逻辑回归和线性回归,并且能够理解其背后的理论(学习安德鲁课程)。
我们有 X -> 给定特征 -> (m , n+1) 的矩阵,其中 m - 没有。给定的案例和 n 个特征(不包括 x0)
我们有 y -> 要预测的标签 -> (m,1) 的矩阵
现在,当我在 python 中从头开始实现它时,我很困惑为什么我们在 sigmoid 函数中使用 theta 的转置。
我们也使用 theta transpose X 进行线性回归。
我们在编码时不必在任何地方执行矩阵乘法,它的直接元素到元素编码,转置需要什么或者我的理解错误,我们需要在实现过程中进行矩阵乘法。
我主要担心的是,我对我们在哪里进行矩阵乘法以及在逻辑和线性回归中在哪里进行元素乘法感到非常困惑
【问题讨论】:
-
符号
AB,其中A和B是矩阵或向量,通常表示普通矩阵乘法。像A * B这样的符号是 Hadamard 乘积 - 相等大小矩阵的元素乘法。在您的情况下,这是简单的矩阵乘法,而不是“元素到元素编码”。 -
这可能更适合stats.stackexchange.com。
标签: python machine-learning linear-regression logistic-regression