【发布时间】:2017-09-09 23:14:04
【问题描述】:
现在我正在运行一个非常激进的网格搜索。我有n=135 samples,我正在使用自定义交叉验证训练/测试列表运行23 folds。我有我的verbose=2。
以下是我跑的:
param_test = {"loss":["deviance"],
'learning_rate':[0.01, 0.025, 0.05, 0.075, 0.1, 0.15, 0.2],
"min_samples_split": np.linspace(0.1, 0.5, 12),
"min_samples_leaf": np.linspace(0.1, 0.5, 12),
"max_depth":[3,5,8],
"max_features":["log2","sqrt"],
"min_impurity_split":[5e-6, 1e-7, 5e-7],
"criterion": ["friedman_mse", "mae"],
"subsample":[0.5, 0.618, 0.8, 0.85, 0.9, 0.95, 1.0],
"n_estimators":[10]}
Mod_gsearch = GridSearchCV(estimator = GradientBoostingClassifier(),
param_grid = param_test, scoring="accuracy",n_jobs=32, iid=False, cv=cv_indices, verbose=2)
我查看了stdout 中的详细输出:
$head gridsearch.o8475533
Fitting 23 folds for each of 254016 candidates, totalling 5842368 fits
基于此,使用我的网格参数的交叉验证对似乎有 5842368 排列。
$ grep -c "[CV]" gridsearch.o8475533
7047332
到目前为止,似乎已经完成了大约 700 万次交叉验证,但这比 5842368 的总拟合次数还要多...
7047332/5842368 = 1.2062458236
然后当我查看stderr 文件时:
$ cat ./gridsearch.e8475533
[Parallel(n_jobs=32)]: Done 132 tasks | elapsed: 1.2s
[Parallel(n_jobs=32)]: Done 538 tasks | elapsed: 2.8s
[Parallel(n_jobs=32)]: Done 1104 tasks | elapsed: 4.8s
[Parallel(n_jobs=32)]: Done 1834 tasks | elapsed: 7.9s
[Parallel(n_jobs=32)]: Done 2724 tasks | elapsed: 11.6s
...
[Parallel(n_jobs=32)]: Done 3396203 tasks | elapsed: 250.2min
[Parallel(n_jobs=32)]: Done 3420769 tasks | elapsed: 276.5min
[Parallel(n_jobs=32)]: Done 3447309 tasks | elapsed: 279.3min
[Parallel(n_jobs=32)]: Done 3484240 tasks | elapsed: 282.3min
[Parallel(n_jobs=32)]: Done 3523550 tasks | elapsed: 285.3min
我的目标:
我怎样才能知道我的网格搜索的进度相对于它可能花费的总时间?
我的困惑:
stdout 中的[CV] 行、stdout 中的总匹配数和stderr 中的任务之间的关系是什么?
【问题讨论】:
标签: python machine-learning parameters scikit-learn grid-search