【发布时间】:2015-10-06 12:47:18
【问题描述】:
如果我尝试截断大约 4000 万个文档的大量集合,我会在 arangosh 中超时,并且 arangodb 服务会无响应。留言:
arangosh [database_xxx]> db.[collection_yyy].truncate() ;文件 '/usr/share/arangodb/js/client/modules/org/arangodb/arangosh.js' 在 104,13 中的 JavaScript 异常:[ArangoError 2001:读取错误:'tcp://127.0.0.1:8529' '读取超时'] ! 抛出新的 ArangoError(requestResult); ! ^ 堆栈跟踪:错误 在 Object.exports.checkRequestResult (/usr/share/arangodb/js/client/modules/org/arangodb/arangosh.js:104:13) 在 ArangoCollection.truncate (/usr/share/arangodb/js/client/modules/org/arangodb/arango-collection.js:468:12) 在:1:11
Debian Jessie 上的 ArangoDB 2.6.9,AWS ec2 m4.xlarge,16G RAM,SSD。 服务无响应。我怀疑它卡住了(不仅仅是忙),因为它直到我停止后才起作用,删除 /var/lib/arangodb/databases/ 中的数据库,然后重新开始。
我知道我可能会因为尺寸而倾向于性能极限,但我猜想无论尺寸如何都不会失败。
但是,在非云 Windows 10、16GB RAM、SSD 上,同样的操作很成功 - 一段时间后。
这是一个错误吗?如果有帮助,我有一些 python 代码可以将虚拟数据加载到集合中。如果我将提供更多信息,请告诉我。 摆弄 --server.request-timeout 会有所帮助吗?
提前致谢 索伦
【问题讨论】:
-
更新。参考我最初帖子中的测试。我在 AWS ec2 m4.xlarge 上重复了截断操作,但这次是在 ArangoDB 版本 2.7.0 上。操作正确成功,没有进入死状态。问题得到了修复 :-) 虽然它仍然比插入相同的数据花费了更长的时间。干杯
标签: arangodb