【发布时间】:2017-10-21 18:19:51
【问题描述】:
我正在尝试使用 NN 进行回归 - 我的设置有 2 个隐藏层。
我拥有的输入数据具有以下结构 - 特征 A、B、C、D 是数字的(可以采用从 -500k 到 500k 的值),特征 E 是分类的,F 是我想要的因变量预测。 A、B、C、D 会因国家/地区而异(因此我将国家/地区列为单独的特征)。
我在训练时尝试了两种不同的方法来表达特征 E:
- 一种热编码
- 使用现有的 A、B、C、D 功能
我附上了训练数据(组成值)的截图以及我的两种方法。
[data][1]
[Option1][2]
[Option2][3]
选项 (2) 效果很好(就 r^2 和单个预测的准确性而言),而 (1) 效果很差。
我还尝试在使用 one-hot-encoding 时对 A、B、C、D(-mean/std)进行归一化,但没有太大帮助。
值得注意 - 即使没有规范化,选项 (2) 也能很好地工作。
我的问题是 - 我怎么能理解为什么会这样?我认为一种热编码应该可以正常工作,但似乎不行。为什么NN从方法(2)更好地理解分类?
谢谢
[1]: https://i.stack.imgur.com/sixHw.png
[2]: https://i.stack.imgur.com/VMw8O.png
[3]: https://i.stack.imgur.com/5eQxk.png
【问题讨论】:
标签: machine-learning tensorflow neural-network deep-learning feature-extraction