【问题标题】:What makes recent versions of JVM faster?是什么让最新版本的 JVM 更快?
【发布时间】:2013-04-14 20:52:17
【问题描述】:

我最近看到多个关于 Java(和基于 JVM 的语言,例如 Scala)如何在性能上与 C/C++ 代码相媲美的声明。

例如来自ScalaLab project的描述:

基于 Scala 的脚本编写速度,接近 本机和优化的 Java 代码,因此接近甚至更好 来自基于 C/C++ 的科学代码!

谁能指出这些 JVM 优化的摘要?是否有任何真正的基准支持这种说法或提供一些现实世界的比较?

【问题讨论】:

  • 像所有基准一样,它取决于您的数据。我认为这不能以目前的形式回答。

标签: java performance scala jvm native-code


【解决方案1】:

当然,实际性能取决于基准测试并因应用程序而异。但很容易看出 JIT 虚拟机如何与静态编译的代码一样快,至少在理论上是这样。

JIT 代码的主要优势在于它可以基于仅在运行时才知道的信息进行优化。在 C 中,当您链接到 DLL 时,您必须每次都调用该函数。在动态语言中,即使是在运行时加载的函数,也可以内联函数,这要归功于即时编译。

另一个例子是基于运行时值进行优化。在 C/C++ 中,您使用预处理器宏来禁用断言,如果您想更改此选项,则必须重新编译。在 Java 中,断言是通过设置一个私有布尔字段然后在代码中放置一个 if 分支来处理的。但由于 VM 可以根据标志的值编译包含或不包含断言代码的代码版本,因此对性能的影响很小或没有。

另一个主要的 VM 创新是多态内联。 Idomatic Java 非常关注像 getter 和 setter 这样的小型包装方法。为了获得良好的性能,内联它们显然是必要的。 VM 不仅可以在实际只调用一种类型的常见情况下内联多态函数,它还可以内联调用多种不同类型的代码,方法是在适当的代码中包含内联缓存。如果代码开始在许多不同的类型上运行,VM 可以检测到这一点并回退到较慢的虚拟调度。

静态编译器当然不能做这些。强大的静态分析只能让您走这么远。这也不仅限于 Java,尽管它是最明显的例子。用于 Javascript 的 Google 的 V8 vm 也非常快。 Pypy 旨在为 Python 做同样的事情,而 Rubinius 为 Ruby 做同样的事情,但它们并不完全在那里(当你有一个大公司支持你时它会有所帮助)。

【讨论】:

    【解决方案2】:

    性能技术

    首先,它取决于您所谈论的 哪个 JVM,因为有多个 - 但我假设您的意思是 Oracle HotSpot(无论如何,其他顶级 JVM将使用类似的技术)。

    对于那个 JVM,来自 HotSpot 内部 wiki 的this list 提供了一个很好的开始(子页面详细介绍了一些更有趣的技术)。如果您只是在寻找技巧清单,请访问 wiki has that too,尽管要理解它们,您可能需要在 Google 上搜索各个术语。

    并非所有这些都是最近实施的,但一些大的已经实施(范围检查省略、转义分析、超词优化)——至少对于“最近”的松散定义。

    接下来,让我们看一下 C/C++ 与 Java 的相对性能图,以及为什么上述技术有助于缩小差距,或者在某些情况下实际上赋予 Java 和固有的优势,而不是原生编译语言。

    Java 与 C/C++

    在高层次上,优化是您在任何体面的 C 和 C++ 等本机语言编译器中看到的东西的混合,以及减少 Java/JVM 特定功能和安全性影响所需的东西检查,例如:

    • 转义分析(在某种程度上)减轻了对象的无堆栈分配
    • 内联缓存和类层次结构分析,可缓解“每个函数都是虚拟的”
    • 消除范围检查,从而减轻“每个数组访问都经过范围检查”

    这些 JVM 特定* 优化中的许多仅有助于使 JVM 与本地语言平起平坐,因为它们正在解决本地语言不必处理的障碍。然而,一些优化是静态编译语言无法管理的(或者在某些情况下只能通过配置文件引导的优化来管理,这种情况很少见,而且无论如何都必须一刀切):

    • 只动态内联最热门的代码
    • 根据实际分支/开关频率生成代码
    • 动态生成 CPU/指令集感知代码(甚至是编译代码后发布的 CPU 功能!)1
    • 省略从未执行的代码
    • 注入与应用程序代码交错的预取指令
    • 安全指向支持的整个技术系列

    大家的共识似乎是,Java 生成的代码通常在速度上与中等优化级别的优秀 C++ 编译器相似,例如 gcc -O2,尽管很大程度上取决于确切的基准。像 HotSpot 这样的现代 JVM 往往在低级数组遍历和数学方面表现出色(只要竞争的编译器没有向量化 - 这很难被击败),或者在竞争代码执行相似数量分配时具有大量对象分配的场景中(JVM 对象分配 + GC 通常比 malloc 快),但是当典型 Java 应用程序的内存损失是一个因素时,堆栈分配被大量使用,或者向量化编译器或内在函数向本机代码倾斜时,就会下降。

    如果您搜索 Java 与 C 的性能,您会发现很多人都解决了这个问题,他们的严谨程度各不相同。这是first one I stumbled across,它似乎显示了gcc 和HotSpot 之间的大致联系(即使在这种情况下为-O3)。 This post 和链接的讨论可能是一个更好的开始,如果您想了解单个基准如何通过每种语言的多次迭代、相互跨越 - 并显示双方优化的一些限制。

    *并不是真正特定于 JVM - 大多数也适用于其他 安全 或 CLR 等托管语言


    1 随着新指令集(尤其是 SIMD 指令,但有 others)以某种频率发布,这种特殊的优化变得越来越重要。自动向量化可以大幅加速某些代码,虽然 Java 在这方面的速度已经很慢,但它们至少是 catching up 一点点。

    【讨论】:

      【解决方案3】:

      我要补充一点,hotspot、jrockit 和 IBM 的 JVM 都在 GC 中执行堆压缩。由于这个原因,我最近将一些繁重的数学代码移植到了 Scala。如果您打算运行任何大型应用程序,我强烈推荐 Java。在部署到服务器或进行扩展时,您可能会后悔使用 CLR,尤其是在内存密集型的情况下。

      对于本机代码,JVM 配置选项也非常出色。

      【讨论】:

        猜你喜欢
        • 2013-08-21
        • 1970-01-01
        • 2015-04-13
        • 1970-01-01
        • 1970-01-01
        • 1970-01-01
        • 1970-01-01
        • 2020-04-14
        • 2021-07-18
        相关资源
        最近更新 更多