这篇文章也是针对aspect-level SA的一篇文章,其实准确的说更像一篇针对注意力机制的文章,提出了SA模型目前注意力机制的缺陷:过度注意高频词,忽略了低频次,本文用了两个技巧:第一个是迭代的mask注意力权重最大的词,第二个是加入了一个正则化项
论文阅读 《Progressive Self-Supervised Attention Learning for Aspect-Level Sentiment Analysis》

相关文章:

  • 2021-10-28
  • 2021-12-13
  • 2021-09-24
  • 2022-01-19
  • 2021-04-07
  • 2021-05-08
  • 2021-10-12
  • 2021-12-09
猜你喜欢
  • 2021-09-21
  • 2021-05-22
  • 2021-10-18
  • 2021-11-15
  • 2021-10-05
  • 2021-05-26
  • 2021-11-01
相关资源
相似解决方案