这里是斯坦福大学机器学习网络课程的学习笔记。课程地址是:https://class.coursera.org/ml-2012-002/lecture/index

  
本周题目包括:
1. sigmoid 函数表达式
2. logistic 回归方法的成本函数
3. logistic 回归方法的梯度下降法
4. 二分类的预测函数
5. 正则化的logistic回归方法的成本函数
6. 正则化的logistic回归方法的梯度下降法
 
题解:
1. sigmoid 函数表达式
function g = sigmoid(z)
g = zeros(size(z))
; g=1./(1+power(e,-z)); end

 

2. logistic 回归方法的成本函数 & 3. logistic 回归方法的梯度下降法
function [J, grad] = costFunction(theta, X, y)
m = length(y)
; J = 0; grad = zeros(size(theta)); J=1/m*(-y'*log(sigmoid(X*theta))-(1-y)'*log(1-sigmoid(X*theta))); grad=1/m*((sigmoid(X*theta)-y)'*X)';

end

 

4. 二分类的预测函数

function p = predict(theta, X)

m = size(X, 1); % Number of training examples
p = zeros(m, 1);

admitted=find(sigmoid(X*theta)>=0.5);p(admitted)=1;

end

 

5. 正则化的logistic回归方法的成本函数 & 6. 正则化的logistice回归方法的梯度下降法
function [J, grad] = costFunctionReg(theta, X, y, lambda)

m = length(y); % number of training examples

J = 0;
grad = zeros(size(theta));

[J_normal, grad_normal] = costFunction(theta,X,y);
J = J_normal + lambda/(2*m)*(theta'*theta-theta(1)^2);
grad = grad_normal + lambda/m*theta;
grad(1) = grad(1)-lambda/m*theta(1);

end

 

相关文章:

  • 2022-01-19
  • 2022-01-01
  • 2021-06-11
  • 2021-09-30
  • 2021-12-15
  • 2022-12-23
  • 2021-11-30
猜你喜欢
  • 2021-08-08
  • 2021-11-15
  • 2022-02-27
  • 2022-01-17
  • 2021-06-01
  • 2021-08-06
  • 2021-11-21
相关资源
相似解决方案