摘要

为解决生成多样性低的问题

思想

Group-wise Contrastive Learning for Neural Dialogue Generation 阅读笔记

找到正向和负向group的context和response,设计loss

做法

首先有
Group-wise Contrastive Learning for Neural Dialogue Generation 阅读笔记

其中pn是baseline模型,pm是target模型

其中c是输入文本 r是回复文本,

构造loss:
Group-wise Contrastive Learning for Neural Dialogue Generation 阅读笔记

最大化正向回复,最小化负向回复

这个loss即刻画 相对baseline模型的生成多样性 或 分布distinctiveness

正向回复和负向回复的采样,使用了BM25+匹配模型

相关文章:

  • 2021-12-05
  • 2021-12-13
  • 2021-07-09
  • 2021-12-07
  • 2021-08-21
  • 2021-11-08
  • 2021-12-07
猜你喜欢
  • 2021-11-19
  • 2022-12-23
  • 2021-12-05
  • 2021-06-08
  • 2021-06-10
相关资源
相似解决方案