【问题标题】:Initializing weights for svm in spark在 spark 中初始化 svm 的权重
【发布时间】:2015-09-18 21:51:04
【问题描述】:

我正在尝试为 Spark 中的 SVM 初始化分配我自己的权重。但是在训练模型后我得到了错误的预测值。如果我使用默认的,即不提供初始权重向量,我会得到一个很好的预测模型。

我检查了 github 上的代码,但无法弄清楚初始化是如何完成的,以防我们没有传递任何东西。 https://github.com/apache/spark/blob/master/mllib/src/main/scala/org/apache/spark/mllib/classification/SVM.scala.

有什么建议吗?

编辑:我有 0 次使用 scala 的经验

【问题讨论】:

    标签: scala apache-spark


    【解决方案1】:

    SVMWithSGDGeneralizedLinearAlgorithm 继承其run 方法。如果未提供权重向量,则只需 initialized using vector of zeros:

    val initialWeights = {
      if (numOfLinearPredictor == 1) {
        Vectors.zeros(numFeatures)
      } else if (addIntercept) {
        Vectors.zeros((numFeatures + 1) * numOfLinearPredictor)
      } else {
        Vectors.zeros(numFeatures * numOfLinearPredictor)
      }
    }
    

    【讨论】:

      猜你喜欢
      • 2012-11-21
      • 2019-04-14
      • 2017-09-15
      • 2018-09-01
      • 2023-04-03
      • 1970-01-01
      • 1970-01-01
      • 2022-11-12
      • 1970-01-01
      相关资源
      最近更新 更多