【问题标题】:ArangoDB memory overflow - is there no solution?ArangoDB 内存溢出 - 没有解决方案吗?
【发布时间】:2017-12-09 22:46:12
【问题描述】:

当我执行 AQL 查询时,我遇到了这个错误:

查询:AQL:查询将使用超过允许的内存(在执行时)

我的数据集:90 亿个顶点,190 亿条边

我的集群有三个节点,运行 Centos 7 和 32 GB RAM

只希望查询可以执行,不会报错。可以修改哪些配置文件来达到目的?我是 ArangoDB 的新手。

【问题讨论】:

标签: arangodb


【解决方案1】:

一些粗略的计算表明您将需要使用 RocksDB 引擎:

(100 * 28 * 10^9) / (3 * (32 * 10^9)) => 29.17

https://www.arangodb.com/why-arangodb/comparing-rocksdb-mmfiles-storage-engines/

【讨论】:

  • 我已经用过rocksdb了,你能告诉我你是怎么计算出来的,谢谢!
  • 我刚刚使用了你的数字并猜测了每个 (V+E) 字节数的平均值。如果您已经在使用 RocksDB 并且有足够的磁盘空间,那么原因可能是 ArangoDB 对其维护的索引有一些内存要求。你定义了哪些索引?听起来您可能需要更直接地联系 ArangoDB,例如在github.com/arangodb/arangodb/issues
  • 我没有自定义索引,是arangodb的默认索引,是的。我的磁盘空间够用,我已经在GitHub提过问题了,但是开发组没有解决我
  • 也许默认索引需要大量内存?你看过github.com/arangodb/arangodb/issues/3806 吗? #你的问题是什么?
猜你喜欢
  • 1970-01-01
  • 2013-10-05
  • 1970-01-01
  • 2010-10-25
  • 2021-01-10
  • 2023-01-03
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多