【发布时间】:2017-08-14 07:02:39
【问题描述】:
通常在机器学习中,训练会消耗大量时间,虽然这是可以衡量的,但只能在训练结束后进行。
是否有一些方法可用于估计完成训练(或一般而言,任何功能)可能需要的时间,例如before_call?
当然,它取决于机器,更多取决于输入,但基于算法将调用的所有 IO 的近似值,基于简单输入,然后缩放到实际输入的大小。像这样?
PS - JS、Ruby 或任何其他 OO 语言
PPS - 我看到在 Oracle 中有一种方法,described here。太棒了。它是怎么做的?
【问题讨论】:
标签: algorithm performance time machine-learning