【发布时间】:2015-12-02 04:09:03
【问题描述】:
我无法理解 Andrew Ng 的 CS229 笔记中给出的 GDA 似然函数。
l(φ,µ0,µ1,Σ) = log (i 到 m 的乘积) {p(x(i)|y(i);µ0,µ1,Σ)p(y(i);φ) }
链接是http://cs229.stanford.edu/notes/cs229-notes2.pdf第5页。
对于线性回归,函数是从 i 到 m p(y(i)|x(i);theta) 的乘积 这对我来说很有意义。 为什么这里有一个变化,说它由 p(x(i)|y(i) 给出,然后乘以 p(y(i);phi)? 提前致谢
【问题讨论】:
标签: machine-learning statistics probability gaussian