【发布时间】:2017-10-03 15:03:59
【问题描述】:
目前,我们正在研究 Spark 2.0,我想知道在 spark 训练过程中损失函数的梯度是如何变化的,可以用来可视化训练过程。 例如,我有以下代码:
// Load training data in LIBSVM format.
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")
// Split data into training (60%) and test (40%).
val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L)
val training = splits(0).cache()
val test = splits(1)
// Run training algorithm to build the model
val model = new LogisticRegressionWithLBFGS()
.setNumClasses(10)
.run(training)
我知道包“org.apache.spark.mllib.evaluation”下有一些类可以用来从模型中获取一些指标,但我仍然不知道损失函数的梯度是如何改变的在训练过程中。
有什么解决办法吗?
【问题讨论】:
标签: apache-spark apache-spark-mllib