【问题标题】:Could anyone explain Big O versus Big Omega vs Big Theta? [duplicate]谁能解释一下 Big O 与 Big Omega 与 Big Theta 的关系? [复制]
【发布时间】:2012-12-15 06:05:09
【问题描述】:

可能重复:
Big Theta Notation - what exactly does big Theta represent?

我猜理论上我理解它,但我难以掌握的是这三个的应用。

在学校里,我们总是用大 O 来表示算法的复杂性。例如冒泡排序是 O(n^2)。

现在,在阅读了更多理论之后,我发现 Big Oh 并不是唯一的衡量标准,至少还有另外两个有趣的衡量标准。

但这是我的问题:

Big O 是上限,Big Omega 是下限,Big Theta 是两者的混合。但这在概念上意味着什么?我明白它在图表上的含义;我已经看到了一百万个这样的例子。但这对算法复杂性意味着什么? “上限”或“下限”如何与之混合?

我想我只是没有得到它的应用程序。我知道如果乘以某个常数 c,如果在某个值 n_0 f(x) 大于 g(x) 之后,f(x) 被认为是 O(g(x))。但这实际上意味着什么?为什么我们要将 f(x) 乘以某个值 c?见鬼,我认为使用大 O 符号的倍数并不重要。

【问题讨论】:

    标签: big-o discrete-mathematics


    【解决方案1】:

    大 O 表示法及其相关的大 Theta、大 Omega、小 o 和小 Omega 是表示函数在极限点(例如,当接近无穷大时,但也接近 0 时,等等),而无需多说有关该功能的其他信息。它们通常用于描述算法的运行空间和时间,但也可以在有关渐近行为的其他数学领域中看到。

    半直观的定义如下:

    如果“从某个点开始”,函数 g(x) 小于 c*f(x),则称函数 g(x) 为 O(f(x)),其中 c 是某个常数。

    其他定义类似,Theta要求g(x)在f(x)的两个常数倍数之间,Omega要求g(x)>c*f(x),小版本要求这是真的对于所有这些常量。

    但是为什么说一个算法的运行时间为 O(n^2) 会很有趣呢?

    这很有趣,主要是因为在理论计算机科学中,我们最感兴趣的是算法如何处理大量输入。这是真的,因为在小输入时,算法运行时间可能会因实现、编译、硬件和其他在理论上分析算法时并不真正有趣的事情而有很大差异。

    不过,增长速度通常取决于算法的性质,要改进它,您需要对要解决的问题有更深入的了解。例如,排序算法就是这种情况,您可以获得一个简单的算法(冒泡排序)以在 O(n^2) 中运行,但要将其改进为 O(n log n),您需要一个真正的新想法,例如在合并排序或堆排序中介绍的。

    另一方面,如果您有一个算法在 5n 秒内运行,而另一个算法在 1000n 秒内运行(例如,n=3 时长打哈欠和发射中断之间的差异),当你得到n = 1000000000000,规模的差异似乎不那么重要。但是,如果您有一个需要 O(log n) 的算法,则您必须等待 log(1000000000000)=12 秒,也许乘以某个常数,而不是将近 317,098 年,无论常数有多大是,是完全不同的尺度。

    我希望这能让事情变得更清楚一些。祝你学业顺利!

    【讨论】:

      猜你喜欢
      • 2019-12-04
      • 1970-01-01
      • 1970-01-01
      • 2015-05-03
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多