【发布时间】:2018-12-24 12:21:56
【问题描述】:
我在监控团队工作,我们会监控我们工具上的客户端负载。 我们记录了与时间序列相关的延迟。
最初,我保留了一个静态阈值来提高异常检测。但是,如果发生季节性,它就不起作用。现在,我计划在我的数据上应用 ML。
我的数据如下:
volume_nfs_ops timestamp mount_point
---------------------------------------------------------
2103 6/28/2018 3:16 /slowfs/us01dwt2p311
12440 6/28/2018 6:03 /slowfs/us01dwt2p311
14501 6/28/2018 14:20 /slowfs/us01dwt2p311
12482 6/28/2018 14:45 /slowfs/us01dwt2p311
10420 6/28/2018 18:09 /slowfs/us01dwt2p311
7203 6/28/2018 18:34 /slowfs/us01dwt2p311
14104 6/28/2018 21:58 /slowfs/us01dwt2p311
6996 6/29/2018 7:35 /slowfs/us01dwt2p311
11282 6/29/2018 8:39 /slowfs/us01dwt2p311
当我做谷歌时,我想到 ARIMA 是时间序列的最佳模型。我对数学很感兴趣,可以弄清楚各自的 ARIMA 是否适合我的数据集。
我的问题是哪种算法最适合在 Python 中实现? 我应该考虑哪些因素来发现异常?
【问题讨论】:
-
没有“最佳”时间序列模型(或其他任何模型)——一切都取决于具体问题。请花一些时间阅读What topics can I ask about here?,并注意要求我们推荐或查找书籍、工具、软件库、教程或其他非现场资源的问题与 Stack Overflow 无关
-
谢谢。我已经尝试过阈值限制,但效果不佳。现在我必须实现到 ML 方面。
标签: python machine-learning time-series arima anomaly-detection