【发布时间】:2018-09-25 13:07:47
【问题描述】:
我正在对一组超参数的数据集进行交叉验证。
lr = LogisticRegression()
paramGrid = ParamGridBuilder() \
.addGrid(lr.regParam, [0, 0.01, 0.05, 0.1, 0.5, 1]) \
.addGrid(lr.elasticNetParam, [0.0, 0.1, 0.5, 0.8, 1]) \
.build()
evaluator = BinaryClassificationEvaluator()
cv = CrossValidator(estimator=lr, estimatorParamMaps=grid, evaluator=evaluator)
我想知道 regParam 和 elasticNetParam 的最佳价值。在 python 中,我们可以选择在交叉验证后获得最佳参数。 pyspark中是否有任何方法可以在交叉验证后获得最佳参数值?
For example : regParam - 0.05
elasticNetParam - 0.1
【问题讨论】:
标签: pyspark apache-spark-mllib