Datawhale零基础入门NLP赛事-Task6

本笔记是参加Datawhale零基础入门NLP赛事的学习笔记。

Transformer

Transformer是在"Attention is All You Need"中提出的,模型的编码部分是一组编码器的堆叠(论文中依次堆叠六个编码器),模型的解码部分是由相同数量的解码器的堆叠。

Bert模型

BERT模型结构如下图所示,它是一个基于Transformer的多层Encoder,通过执行一系列预训练,进而得到深层的上下文表示。
【学习笔记】自然语言处理实践(新闻文本分类)- 基于深度学习的文本分类Bert

基于Bert的文本分类

源码
Bert Pretrain
(TBD)

Bert Finetune
(TBD)

相关文章:

  • 2021-08-24
  • 2021-12-30
  • 2021-09-24
  • 2021-07-01
  • 2021-07-19
  • 2022-01-16
  • 2022-01-13
猜你喜欢
  • 2021-05-27
  • 2021-10-29
  • 2021-10-26
  • 2021-05-28
  • 2021-11-29
  • 2021-09-01
  • 2021-04-12
相关资源
相似解决方案