【问题标题】:How to pre-train the unified language model (UniLm)如何预训练统一语言模型(UniLm)
【发布时间】:2020-06-22 11:16:58
【问题描述】:

我正在处理一个非英语的 NLP 项目,为此,我需要在 bert-base-multilingual-cased 上重新训练 UniLm,但他们没有指定如何在他们的 GitHub 存储库中进行训练。

感谢任何帮助!

这是GitHub repository for Microsoft's UniLm的链接

【问题讨论】:

    标签: python nlp transfer-learning bert-language-model nlg


    【解决方案1】:

    我希望你在 github 上发现这个问题很有用,你可以看看它是否适合你的用例。 https://github.com/microsoft/unilm/issues/205

    【讨论】:

      猜你喜欢
      • 2021-06-22
      • 2020-08-08
      • 2020-08-12
      • 2017-08-19
      • 2021-08-23
      • 2021-09-28
      • 2019-08-03
      • 1970-01-01
      • 2023-01-03
      相关资源
      最近更新 更多