上下文相关的词嵌入

静态词向量的没个词有一个唯一的向量表示,即使具有多个含义的词也只能有一种表达方式。但是上下文相关的词嵌入可以解决一词多义的问题。比较常见的动态词向量训练方法有elmo、bert等

cs224n笔记04-Contextual Word Embeddings

bert使用的是transformer的encoder,任务是mask语言模型和NSP(预测下一个句子)

bert的fine-tuning训练方式

cs224n笔记04-Contextual Word Embeddings

相关文章:

  • 2021-10-01
  • 2021-10-04
  • 2021-10-03
  • 2021-06-05
  • 2021-11-13
  • 2021-05-12
  • 2022-01-05
猜你喜欢
  • 2021-12-11
  • 2021-04-09
  • 2021-09-24
  • 2021-07-19
  • 2021-04-23
  • 2021-12-13
相关资源
相似解决方案