【发布时间】:2019-02-01 02:58:44
【问题描述】:
我正在尝试了解SVR 模型。
为此,我查看了 SVM,这对我来说很清楚。但是关于 SVR 没有太多的解释。
第一个问题是为什么它被称为支持向量回归或者我们如何使用vectors 来预测数值?
另外我不明白一些参数,如epsilon 和gamma。它们如何影响预测结果?
【问题讨论】:
标签: machine-learning regression
我正在尝试了解SVR 模型。
为此,我查看了 SVM,这对我来说很清楚。但是关于 SVR 没有太多的解释。
第一个问题是为什么它被称为支持向量回归或者我们如何使用vectors 来预测数值?
另外我不明白一些参数,如epsilon 和gamma。它们如何影响预测结果?
【问题讨论】:
标签: machine-learning regression
SVM 从您的特征中学习所谓的决策函数,这样来自正类的特征会产生正实数,而来自负类的特征会产生负数(至少在大多数情况下) ,具体取决于您的数据)。
对于两个特征,您可以在 2D 平面中对其进行可视化。该函数为平面中的每个点分配一个实际值,该值可以表示为颜色。 This plot 将值显示为不同的蓝色。
导致零的特征值形成所谓的决策边界。
这个函数本身有两种参数:
epsilon 和 gamma,它们是您在学习之前设置的。学习只不过是确定好的支持向量(参数!)。
在这个2d example video 中,颜色不显示实际的函数值,而只显示符号。您可以看到gamma 如何影响决策函数的平滑度。
回答你的问题:
SVR 构建了这样一个功能,但目标不同。该函数不会尝试将正面结果分配给您的正面示例,并将负面结果分配给负面示例。
相反,该函数被构建为近似给定的数字结果。
【讨论】: