【问题标题】:R Package Deepnet: Training and Testing the MNIST datasetR Package Deepnet:训练和测试 MNIST 数据集
【发布时间】:2015-04-21 19:27:06
【问题描述】:

我正在尝试使用 deepenet 包的 dbn.dnn.train 函数来训练 MNIST 数据集。任务是分类任务。 我正在使用以下命令

dbn.deepnet <- dbn.dnn.train(train.image.data,train.image.labels,hidden=c(5,5))

我面临的问题是:

1) 标签应该是因子类型向量。但是当我输入标签作为因子时,函数会给出一个错误,即“y 应该是矩阵或向量”。所以,我使用标签作为数字。如何进行分类任务

2) 对 dbn.dnn.train 进行预测的功能是什么。我正在使用 nn.predict 但文档提到输入应该是由函数 nn.train 训练的神经网络(未提及 dbn.dnn.train)。 所有记录的输出为 0.9986

nn.predict(dbn.deepnet,train.image.data)

【问题讨论】:

  • 也许你应该试试 neuralnet 包?请检查这个答案stackoverflow.com/questions/21827195/…希望这可能会有所帮助。
  • 谢谢!但我正在尝试实现深度学习,特别是深度信念网络,这不是由包神经网络提供的
  • here 中可以找到使用deepnet 训练MNIST 的示例,在here 中可以找到加速信息。

标签: r neural-network deep-learning rbm


【解决方案1】:

不知道您是否仍在努力,或者您是否找到了解决方案,但是: 1/试试这个:train.image.labels

2/ 我使用 nn.predict,即使神经网络是由 dbn.dnn.train 训练的。

【讨论】:

    【解决方案2】:

    如您所知,神经网络的输入值最好介于 0 和 1 之间。在“deepnet”包中,与nn.train 函数不同,对于dbn.dnn.train,您需要自己对输入进行归一化。这是加载、训练和测试的完整代码。

    #loading MNIST
    setwd("path/to/MNIST/")
    mnist <- load.mnist(".")
    # the function to normalize the input values
    normalize <- function(x) {
      return (x/255)
    }
    # standardization
    train_x_n <-  apply(mnist$train$x, c(1,2),FUN = normalize)
    test_x_n <- apply(mnist$test$x, c(1,2),FUN = normalize)
    #training and prediction
    dnn <- dbn.dnn.train(train_x_n, mnist$train$yy, hidden = c(100, 70, 80), numepochs = 3, cd = 3)
    err.dnn <- nn.test(dnn, test_x_n, mnist$test$yy)
    dnn_predict <- nn.predict(dnn, test_x_n)
    # test the outputs
    print(err.dnn)
    print(dnn_predict[1,])
    print(mnist$test$y[1])
    

    输出:

    > err.dnn
    [1] 0.0829
    > dnn_predict[1,]
    [1] 7.549055e-04 1.111647e-03 1.946491e-03 7.417489e-03 3.221340e-04 7.306264e-04 4.088365e-05 9.944441e-01 8.953903e-05
    [10] 9.085863e-03
    > mnist$test$y[1]
    [1] 7
    

    【讨论】:

      猜你喜欢
      • 2019-06-16
      • 2016-06-08
      • 1970-01-01
      • 2017-02-20
      • 2018-10-13
      • 2018-02-25
      • 1970-01-01
      • 2019-05-01
      • 2018-04-22
      相关资源
      最近更新 更多