【发布时间】:2020-08-08 11:43:33
【问题描述】:
我很好奇是否可以在文本生成中使用迁移学习,并在特定类型的文本上重新训练/预训练它。
例如,拥有一个预训练的 BERT 模型和一个小的医学(或任何“类型”)文本语料库,可以创建一个能够生成医学文本的语言模型。假设您没有大量的“医学文本”,这就是您必须使用迁移学习的原因。
把它作为一个管道,我会这样描述:
- 使用预训练的 BERT 标记器。
- 从我的新文本中获取新标记并将它们添加到现有的预训练语言模型(即 vanilla BERT)中。
- 使用组合标记器在自定义语料库上重新训练预训练的 BERT 模型。
- 生成与小型自定义语料库中的文本相似的文本。
这听起来很熟悉吗?拥抱脸可以吗?
【问题讨论】:
-
请参阅here,了解 fastai 是如何做到的。忽略带有
_clas的任何内容,这是用于分类位的。而您的用例正是 fastai 的设计目的。 -
你能检查一下链接吗?它似乎坏了,如果您能分享任何其他参考资料,我将不胜感激。
-
@John 我也在考虑同样的方法。你有什么关于使用拥抱脸的实现吗?
标签: deep-learning transfer-learning huggingface-transformers language-model bert-language-model