【问题标题】:Why is the default hdfs blocksize set to 134.2 mb (approx)为什么默认 hdfs 块大小设置为 134.2 mb(大约)
【发布时间】:2017-08-10 21:36:35
【问题描述】:

我在 Ambari 中看到 default 块大小设置为 134217728。是否有任何具体原因将其设置为该值(128 或 256 除外)?

【问题讨论】:

    标签: hadoop hdfs hortonworks-data-platform ambari


    【解决方案1】:

    我先告诉你一件事。 HDFS 块大小 - 134217728 不是 Amabari 特定的。它是 HDFS 默认块大小。查看以下链接并搜索 dfs.blocksize 属性。 HDFS 中的大多数大小约定都是二进制的,即。 1024 的幂。

    https://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

    134217728 bytes = 128 * 1024 * 1204 = 128MB 
    

    HDFS 支持在块大小值中添加后缀 - k(kilo), m(mega), g(giga), t(tera), p(peta), e(exa) (例如 - 128k, 128m, 128g,等),但是 Amabari 不支持任何后缀,如果您通过 Ambari 推送配置,则块大小必须以字节为单位。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2022-07-01
      • 2023-01-16
      • 2018-11-23
      • 1970-01-01
      • 2012-11-08
      • 2018-10-06
      • 1970-01-01
      相关资源
      最近更新 更多