【发布时间】:2020-04-04 14:11:53
【问题描述】:
我正在使用 elasticsearch 和 fscrawler 搜索大约 7TB 的数据。该过程开始良好,直到它在某个时间后停止。它一定是内存不足,我正在尝试使用 https://fscrawler.readthedocs.io/en/latest/admin/jvm-settings.html 添加我的堆,但我不断收到错误消息 invalid maximum heap size。
这是设置堆的正确方法吗?我错过了什么?
【问题讨论】:
-
你有多少内存?
-
我有 40GB 内存
标签: java elasticsearch jvm fscrawler