【发布时间】:2020-08-30 13:10:28
【问题描述】:
我正在使用 Stanza 从多种语言的文档中获取标记、引理和标签,用于语言学习应用程序。这意味着我需要为不同的语言存储和加载许多 Stanza(默认)模型。
我现在的主要问题是,如果我想加载所有这些模型,内存需求对我的资源来说太多了。我目前在 AWS 上部署了一个运行 Stanza NLP 的 Web API。 我希望将我的基础架构成本保持在最低水平。
一种可能的解决方案是在我需要运行脚本时一次加载一个模型。我想这意味着每次将模型加载到内存中都会有一些额外的开销。
我尝试的另一件事是使用我真正需要的处理器,这会减少内存占用,但不会减少那么多。
我尝试在 Github 和 Google 上查看未解决和已关闭的问题,但没有找到太多。
还有哪些其他可能的解决方案?
【问题讨论】:
-
明确一点,您想在移动设备上运行 Stanza 管道并让模型适合内存吗?您的目标是 iOS 还是 Android?
-
嘿@StanfordNLPHelp 可能我说“app”误导了你:) 我的错!它是一个网络应用程序。我的代码在 Python 脚本中运行。
标签: nlp stanford-nlp stanza