【问题标题】:How Support Vector Regression works?支持向量回归如何工作?
【发布时间】:2019-02-01 02:58:44
【问题描述】:

我正在尝试了解SVR 模型。
为此,我查看了 SVM,这对我来说很清楚。但是关于 SVR 没有太多的解释。 第一个问题是为什么它被称为支持向量回归或者我们如何使用vectors 来预测数值?
另外我不明白一些参数,如epsilongamma。它们如何影响预测结果?

【问题讨论】:

    标签: machine-learning regression


    【解决方案1】:

    SVM 从您的特征中学习所谓的决策函数,这样来自正类的特征会产生正实数,而来自负类的特征会产生负数(至少在大多数情况下) ,具体取决于您的数据)。

    对于两个特征,您可以在 2D 平面中对其进行可视化。该函数为平面中的每个点分配一个实际值,该值可以表示为颜色。 This plot 将值显示为不同的蓝色。

    导致零的特征值形成所谓的决策边界

    这个函数本身有两种参数:

    • 内核依赖参数。对于径向基函数,这些参数是 epsilongamma,它们是您在学习之前设置的。
    • 以及在学习过程中确定的所谓支持向量。 支持向量只是决策函数的参数

    学习只不过是确定好的支持向量(参数!)。

    在这个2d example video 中,颜色不显示实际的函数值,而只显示符号。您可以看到gamma 如何影响决策函数的平滑度。

    回答你的问题:

    SVR 构建了这样一个功能,但目标不同。该函数不会尝试将正面结果分配给您的正面示例,并将负面结果分配给负面示例。

    相反,该函数被构建为近似给定的数字结果。

    【讨论】:

    • 谢谢,这是一个关于伽玛影响的好视频,但仍然不清楚SVR。
    猜你喜欢
    • 1970-01-01
    • 2020-01-18
    • 2019-06-07
    • 2019-05-11
    • 2013-08-21
    • 2014-07-03
    • 2019-11-25
    • 2015-01-09
    • 2018-12-23
    相关资源
    最近更新 更多