【发布时间】:2014-11-14 17:59:04
【问题描述】:
我正在使用此脚本http://jexp.de/blog/2014/10/flexible-neo4j-batch-import-with-groovy/ 将 csv 文件导入 neo4j。该文件非常大:大约 6000 万行。我为属性分配了 30GB 内存,为节点分配了 30GB,其余为 30GB。然而,进口商被困在 4900 万行。这是内存问题吗?
输出如下所示
在 x 秒内处理了 48800000 行 在 y 秒内处理了 48900000 行 然后它停止处理并且没有移动。
【问题讨论】:
-
什么是“卡住”?错误、异常、没有任何反应、100% cpu、交换、...?
-
什么也没发生。我现在会更新问题
-
那么您的数据库服务器是否在完成所有工作?刷新所有批处理信息还是 GC 搞定它?
-
我不明白你的问题。我不是数据库人。我正在使用 github 上提供的代码,并根据我在属性和节点索引方面的需求对其进行了调整。还有什么我应该做的吗?