【发布时间】:2019-02-03 09:55:58
【问题描述】:
我在 TensorFlow 中实现了 2 层(2x20 节点)DNN 自定义回归。 16 个数字输入功能。
总体而言,我对所达到的高精度 (~95%) 感到满意,但我对我的错误预测中有大量不正确的异常值感到沮丧。
我相信答案在于我最小化的损失函数(目前是 MSE)或正则化的使用(我尝试了不同级别的 dropout 和 L2 正则化,但对减少大量不正确的预测几乎没有影响)。
最初我使用分类来解决这个问题,但转而使用回归,希望最小化 MSE 可以减少大量错误预测的发生。
有没有我没有考虑过的更好的损失函数或正则化技术?注意:我使用交叉熵进行分类,但我认为它不适合回归。
【问题讨论】:
标签: python tensorflow machine-learning deep-learning regression