【问题标题】:How to save time to conduct both grid search and k-fold cross validation for hyperparameter tuning?如何节省时间进行网格搜索和 k 折交叉验证以进行超参数调整?
【发布时间】:2026-01-23 09:30:01
【问题描述】:

我计划使用 k 折交叉验证 (CV) 执行网格搜索,以优化 LSTM 的超参数。假设我有 n 个超参数组合并定义了 k-fold CV。这意味着我必须运行 LSTM n x k 次,这可能是计算密集型的。

第一季度。有什么实用技巧可以节省时间吗?

为了节省时间,如果 1) 我将整个训练数据拆分为 test vs val(例如,80:20),没有 k-fold,并找到最佳超参数;在这种情况下 n x 1 运行,并且 2) 仅使用从 1) 中找到的光学超参数对 LSTM 执行 k-fold CV,以展示所选 LSTM 的整体性能?有意义吗?

【问题讨论】:

    标签: machine-learning lstm cross-validation grid-search hyperparameters


    【解决方案1】:

    对于大型模型,CV 并不真正可行。因此,您应该以 train-val-test 方式拆分数据。

    网格搜索也不是最好的方法,最好使用随机搜索,原因参见例如here.

    【讨论】: