【发布时间】:2022-02-28 17:28:24
【问题描述】:
我正在关注本指南 https://jalammar.github.io/a-visual-guide-to-using-bert-for-the-first-time/,我的文本观察平均包含少于 250-300 个单词,因此我在任何文本行中都没有 512 个标记。
但类似于这个问题:Fluctuating RAM in google colab while running a BERT model 我必须将max_length 限制为小于 100,否则 Google Colab 会崩溃。
我看到了其他应用基于 BERT 的转换器和使用 Pytorch DataLoader 批量加载数据的示例,但在此示例中无法弄清楚如何实现它。
【问题讨论】:
标签: deep-learning nlp google-colaboratory bert-language-model transformer