【发布时间】:2016-05-25 09:35:27
【问题描述】:
在 SVM 中,标准化 W 向量存在一些问题,例如:for each i W_i = W_i / norm(W)
我很困惑。乍一看,结果sign(<W, x>) 似乎是相同的。但如果是这样,在损失函数 norm(W)^2 + C*Sum(hinge_loss) 中,我们可以通过执行 W = W / (large number) 来最小化 W。
那么,我哪里错了?
【问题讨论】:
标签: machine-learning computer-vision svm