【发布时间】:2016-04-21 16:39:36
【问题描述】:
如何在套索的上下文中简单解释坐标下降和次梯度解。
直观的解释和证明会很有帮助。
【问题讨论】:
标签: machine-learning mathematical-optimization gradient-descent
如何在套索的上下文中简单解释坐标下降和次梯度解。
直观的解释和证明会很有帮助。
【问题讨论】:
标签: machine-learning mathematical-optimization gradient-descent
假设您有一个多元函数F(W) 和K 变量/参数数量w (w_1, w_2, w_3, ..., w_k)。参数是knobs,目标是改变这些knobs,使F最小化函数F。坐标下降是一种贪心方法,即在每次迭代中您更改参数值w_i 以最小化F。它很容易实现,就像gradient descent 一样,它保证在每次迭代中最小化F 并达到局部最小值。
图片通过Bing图片搜索从网上借来的
如上图所示,函数F有两个参数x和y。在每次迭代中,两个参数都由一个固定值c 更改,并且函数的值在新点处进行评估。如果该值较高并且目标是最小化函数,则所选参数的更改会相反。然后对第二个参数执行相同的过程。这是算法的一次迭代。
使用坐标下降的一个优势在于计算函数梯度的代价很高。
来源
【讨论】: