【发布时间】:2017-04-08 00:43:31
【问题描述】:
使用AWS Machine Learning 处理一个新项目,目的是检测输入信号中的某些模式。也就是说,我的模型(神经网络、决策树等)的输入是一个未知数量的离散信号,而我的输出是一个已知数量的值。
我了解传统 ML 模型(例如神经网络)背后的理论,其中派生了一个函数以将已知数量的输入映射到已知数量的输出。这对于提供给 AWS ML 平台的数据为 rows of CSV attributes 的要求是有意义的。
有没有办法使用这个平台或一般的 ML 模型来进行这种信号处理,或者是否有一种预处理技术可以用来导出固定数量的输入变量? p>
例如,我想到的一个方法是对时间信号进行傅立叶变换,并将频域频带中的信号描述为限制在合理范围内(有效地将信号切割到固定数量的值)。虽然完全是在黑暗中拍摄,但我不是 ML 或信号处理方面的专家。
【问题讨论】:
标签: amazon-web-services machine-learning neural-network signals signal-processing