【发布时间】:2015-09-28 07:42:41
【问题描述】:
我刚开始在 Coursera 上的 Machine Learning 上学习 Andrew Ng 的课程。 第三周的题目是逻辑回归,所以我尝试实现下面的代价函数。
假设定义为:
其中 g 是 sigmoid 函数:
这就是我的函数目前的样子:
function [J, grad] = costFunction(theta, X, y)
m = length(y); % number of training examples
S = 0;
J = 0;
for i=1:m
Yi = y(i);
Xi = X(i,:);
H = sigmoid(transpose(theta).*Xi);
S = S + ((-Yi)*log(H)-((1-Yi)*log(1-H)));
end
J = S/m;
end
给定以下值
X = [magic(3) ; magic(3)];
y = [1 0 1 0 1 0]';
[j g] = costFunction([0 1 0]', X, y)
j 返回 0.6931 2.6067 0.6931,即使结果应该是 j = 2.6067。我假设 Xi 有问题,但我看不到错误。
如果有人能指出正确的方向,我将非常感激。
【问题讨论】:
标签: matlab machine-learning logistic-regression gradient-descent