【问题标题】:WEKA's MultilayerPerceptron: training then training againWEKA 的 MultilayerPerceptron:训练然后再训练
【发布时间】:2011-05-13 04:55:05
【问题描述】:

我正在尝试使用 weka 的 MultilayerPerceptron 执行以下操作:

  1. 使用一小部分训练实例进行训练,用于部分时期输入,
  2. 在剩余的 epoch 中使用整组实例进行训练。

但是,当我在代码中执行以下操作时,网络似乎会自行重置以第二次重新开始。

mlp.setTrainingTime(smallTrainingSetEpochs);

mlp.buildClassifier(smallTrainingSet);

mlp.setTrainingTime(wholeTrainingSetEpochs);

mlp.buildClassifier(wholeTrainingSet);

我是不是做错了什么,或者这就是算法应该在 weka 中工作的方式?

如果您需要更多信息来回答这个问题,请告诉我。我对使用 weka 进行编程有点陌生,不确定哪些信息会有所帮助。

【问题讨论】:

    标签: machine-learning weka


    【解决方案1】:

    weka 邮件列表中的This thread 与您的问题非常相似。

    似乎这就是 weka 的 MultilayerPerceptron 应该如何工作的。它被设计为“批量”学习器,您正在尝试逐步使用它。只有实现weka.classifiers.UpdateableClassifier 的分类器才能进行增量训练。

    【讨论】:

      猜你喜欢
      • 2017-12-12
      • 2018-05-22
      • 2017-06-17
      • 2013-01-21
      • 2017-12-02
      • 2021-12-10
      • 2019-07-15
      • 2017-05-16
      • 2013-12-06
      相关资源
      最近更新 更多