【发布时间】:2018-12-03 06:28:06
【问题描述】:
有什么想法吗?
问题状态:
Giving futures:
0+1=1, 1+1=2, 1+2=3, 1+3=4, 1+4=5,
1+5=6, 1+6=7, 1+7=8, 1+8=9, 1+9=10
How to build a machine learning algorithm to learn "+" operation in decimal?
例如学习后123+321应该得到444; 12345678901234567890+12 应该得到 12345678901234567902
数据集的大小是无限的,这个问题很难解决;传统的神经网络方法擅长分类,但需要足够的训练集,不适合无限集。
虽然有很多方法可以尝试解决问题;但它不能在非常大的数字上得到好的结果。这意味着像 LSTM 这样的算法会记住操作数和结果之间的映射,但是它还没有学会如何进行加法。
另外,我的意思是在“神经网络”中使用不受限制的“机器学习”。
(请在回答之前阅读参考文献;纯 LSTM 和类似算法的功能不够强大,也不是预期的。)
参考:https://machinelearningmastery.com/learn-add-numbers-seq2seq-recurrent-neural-networks/
【问题讨论】:
标签: machine-learning