【发布时间】:2014-07-08 07:19:33
【问题描述】:
我目前正在研究一个支持向量机 (SVM) 项目。我正在研究的 SVM 版本是 Linear SVM in Primal Form,我很难理解从哪里开始。
总的来说,我想我理解这个理论;基本上我需要在一定的约束下最小化 w 的范数。并且拉格朗日函数将是我要最小化的目标函数(在应用拉格朗日乘数之后)。
我不明白的是,我的教授告诉我,我们将使用 Quasi-Newton 方法以及 BFGS 更新。我已经尝试过牛顿法的 2D 和 3D 案例,我认为我对算法有很好的掌握,但我不知道如何应用准牛顿法来查找系数 alpha。此外,到目前为止,我阅读的许多文献都告诉我应用二次规划来找到系数。
Quasi-Newton 的迭代算法与求 w... 的系数有何关系?二次规划与拟牛顿有何关系?谁能告诉我发生了什么?
【问题讨论】:
-
这个问题对于任何 Stack Exchange 站点来说都太宽泛了,这个主题更适合 stats.stackexchange.com。阅读那里的帮助中心并写一个更具体的问题。
标签: optimization machine-learning svm