【发布时间】:2017-07-03 18:08:36
【问题描述】:
我只是想知道,用 SSE3 和 CUDA 两种不同的 SIMD 实现的算法的复杂性测量方法是什么。通常我们将算法复杂度与 Big-O 表示法进行比较。有没有这样的方法可以将运行时改进与 SIMD 进行比较?
如果有人问如果你在 GPU 上运行一个算法会改进多少。你能从理论上测量它吗?无需在 CPU 和 GPU 上运行基准测试。 ?
注意:我了解 Big-O 是什么。所以,我只想知道 SSE3 与 CUDA 或基于 CPU 的相同算法的实现相比如何执行,而无需原始基准测试
【问题讨论】: