【问题标题】:Caret Neural Network Error: "missing values in resampled performance measures"插入符号神经网络错误:“重采样性能测量中的缺失值”
【发布时间】:2015-10-18 14:53:05
【问题描述】:

我以前见过其他人出现此错误,但是,我没有找到满意的答案。我想知道是否有人可以对我的问题提供一些见解?

我有一些汽车拍卖数据,我正在尝试对其建模以预测 Hammer.Price

> str(myTrain)
'data.frame':   34375 obs. of  9 variables:
 $ Grade          : int  4 4 4 4 2 3 4 3 3 4 ...
 $ Mileage        : num  150850 113961 71834 57770 43161 ...
 $ Hammer.Price   : num  750 450 1600 4650 4800 ...
 $ New.Price      : num  15051 13795 15051 14475 14475 ...
 $ Year.Introduced: int  1996 1996 1996 1996 1996 1996 1996 1996 1996 1996 ...
 $ Engine.Size    : num  1.6 1.6 1.6 1.6 1.6 1.6 1.6 1.6 1.6 1.6 ...
 $ Doors          : int  3 3 3 3 3 3 3 3 3 3 ...
 $ Age            : int  3771 4775 3802 2402 2463 3528 3315 3193 4075 4988 ...
 $ Days.from.Sale : int  1778 1890 2183 1939 1876 1477 1526 1812 1813 1472 ...

myTrain 包含随机 70% 的数据,myTest 包含另外 30%,我训练模型

myModel <- train(Hammer.Price ~ ., data = myTrain, method = "nnet")

这会导致以下警告:

警告信息: 在nominalTrainWorkflow(x = x, y = y, wts = weights, info = trainInfo, : 重新采样的性能指标中存在缺失值。

当我尝试预测所有结果都等于 1。

myTestPred <- predict(myModel, myTest)

我之前曾使用此数据使用 SPSS Modeller 训练 MLP 神经网络,但似乎无法在 R 中重新创建结果。我尝试了插入符号中的其他一些神经网络包,但总是得到相同的结果结果。

有没有人比我更了解这个?

【问题讨论】:

    标签: r neural-network r-caret nnet


    【解决方案1】:

    如果在调用train 之前缩放数据,是否可以解决问题?如果您在运行模型之前不缩放所有变量,那么 glmnet 和 nnet 就会出现这个问题。如果您将所有变量都设为数字,它也有帮助(有趣的是)。

    您也可以尝试使重采样明确,例如使用

    myControl <- trainControl(method = "repeatedcv", repeats=5, number = 10)
    

    然后将其传递给train:

    myModel <- train(Hammer.Price ~ .,
        data = myTrain,
        method = "nnet",
        trControl = mycontrol)
    

    如果没有数据,有时很难发现错误,抱歉。

    【讨论】:

    • 感谢您的回复。不幸的是,这些事情都没有帮助。我确实发现 brnn 包适用于数据集,但我不太清楚为什么。
    【解决方案2】:

    您的目标变量Hammer.Price 是一个数值变量。在nnet-函数的帮助页面中,您将看到nnet 中的默认值是一个逻辑目标变量。因此,在对数值目标变量建模时,您必须告诉nnet 您正在这样做。参数linout 是您需要的参数。通过设置linout = TRUE,您应该不会再次收到警告消息。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2015-01-05
      • 1970-01-01
      • 2018-09-13
      • 2018-06-26
      • 2014-03-07
      • 1970-01-01
      • 2020-12-12
      • 2019-01-04
      相关资源
      最近更新 更多