wangshen31

前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:

(1)需要预先选定Learning rate;
(2)需要多次iteration;
(3)需要Feature Scaling;
 
因此可能会比较麻烦,这里介绍一种适用于Feature数量较少时使用的方法:Normal Equation;
 
当Feature数量小于100000时使用Normal Equation;
当Feature数量大于100000时使用Gradient Descent;
 
 
 
 
 

分类:

技术点:

相关文章:

  • 2021-11-04
  • 2021-11-30
  • 2021-06-28
  • 2021-11-30
  • 2021-11-30
  • 2021-11-30
猜你喜欢
  • 2021-05-28
  • 2021-11-30
  • 2021-11-30
  • 2021-11-30
  • 2021-06-02
  • 2021-11-30
  • 2021-11-30
相关资源
相似解决方案