【发布时间】:2017-06-18 14:40:38
【问题描述】:
我正在运行 MarkLogic 版本 8.0-6.1。
主机操作系统是 Red Hat Enterprise Linux Server 6.8 版(圣地亚哥)。
数据存储在具有 90% 可用空间的本地磁盘上。
服务器运行良好,但偶尔会抛出以下错误。
SVC-FILWRT: File write error: write '/var/opt/MarkLogic/Forests/clickstream-1/0000008a/ListData': File too large
对根本原因和可能的解决方法有什么想法吗?
【问题讨论】:
-
什么样的文件?二进制、文本、XML、JSON?文件有多大?
-
数据库使用一个林。一个森林有 400 万个 XML 文件。每个 XML 文件的平均大小为 3 KB。
-
我相信 ListData 文件本质上是构成通用索引的好东西。所以看起来“零星”的东西可能与重新索引操作直接相关。 RHEL 6x EXT4 的单个文件限制为 16TB,因此 ListData 本身的文件大小的实际问题似乎不太可能。
-
ListData 文件有多大,整个林使用的磁盘空间有多大,有多少个支架,有多少已删除的片段,最后但并非最不重要的一点是,合并最大大小设置是多少?
-
我在一个森林中存储了 400 万个文档。从那以后,我添加了一个似乎解决了问题的新森林。我现在没有 ListData 的确切值,因为有 2 个森林。然而,目前每个森林有 3 个林分。原始森林仍然有较大的 ListData 和 TreeData 文件。最大的 ListData 文件为 2.8 GB。最大的 TreeData 文件为 3.7 GB。原始森林中删除的片段为 570,181。 Merge Max 设置是默认值 32768 MB。
标签: marklogic marklogic-8