【发布时间】:2025-12-18 13:20:06
【问题描述】:
您好,我正在尝试来自 stanford CoreNLP 官方网站的简单示例:https://stanfordnlp.github.io/CoreNLP/api.html
***** TokensRegexNERAnnotator ner.fine.regexner:从 2 个文件中读取 585586 个唯一条目 线程“主”java.lang.OutOfMemoryError 中的异常:超出 GC 开销限制 在 java.util.LinkedHashMap.newNode(Unknown Source) *****
我已经尝试了网上所有可用的解决方案,但我无法解决问题 我曾尝试通过增加 eclipse.ini 文件中的内存大小来尝试将 -Xms1024m 放入运行配置参数中。 我正在研究我的论文工具,请帮帮我,我被卡住了 我正在使用日食氧气和 stanford-corenlp-3.9.0
谢谢!
【问题讨论】:
-
先尝试使用更多内存。 1GB 对于 NLP 来说并不算多,NLP 相当消耗内存。
-
eclipse.ini 中的内存大小是 Eclipse 用于其自己的代码的大小。当您运行程序时,内存大小在程序的“运行配置”中指定。
-
好的,我正在等待
-
哦,不,通过在运行配置参数中更改为 -Xms2048m 它只是从几行开始处理,但经过几次处理后仍然出现相同的错误
-
TokensRegexNERAnnotator ner.fine.regexner: 从 2 个文件中读取 585586 个唯一条目添加注释器解析从序列化文件 edu/stanford/nlp/models/lexparser/englishPCFG.ser.gz 加载解析器 ... 完成 [ 0.7 秒]。在线程“main”java.lang.OutOfMemoryError 中添加注释器 dcoref 异常:超出 GC 开销限制
标签: java eclipse out-of-memory stanford-nlp