了解Transformer的原理和基于预训练语言模型(Bert)的词表示
学会Bert的使用,具体包括pretrain和finetune

Transformer为什么需要?
1.结构化数据挖掘中,大多无序无局部信息
NLPTask6 新闻⽂文本分类_基于深度学习3
左边encoding 右边decoding

2.bert是一个预训练语言模型,bert是一个考虑上下文(双向)的模型,为了适配多任务下的迁移学习,BERT设计了更通用的输入层和输出层,学习阶段如下:
NLPTask6 新闻⽂文本分类_基于深度学习3
本次NLP训练营有些遗憾,特别是对知识的理解。

相关文章:

  • 2021-06-12
  • 2021-06-10
  • 2021-04-07
  • 2022-01-13
  • 2022-01-16
  • 2021-08-07
  • 2021-05-27
猜你喜欢
  • 2021-09-01
  • 2021-04-12
  • 2021-08-24
  • 2021-06-14
  • 2021-07-01
  • 2021-12-27
  • 2021-08-17
相关资源
相似解决方案