前言

前天,在colab上跑了一个有关自动摘要的神经网络模型,当时是晚上跑的,想让他跑一晚上,结果早晨起来发现,掉线了,跑到了一半,功亏一篑。
然后第二天白天,又跑了一白天
到下午的时候终于
创新实训(12)——基于seq2seq和attention的文档自动摘要(续)
50轮完成。
和刚开始相比:
创新实训(12)——基于seq2seq和attention的文档自动摘要(续)
从三十几轮开始,损失率越来越高,一点都没收敛,可能是学习率太高的缘故。
明天白天调一下参数在跑一次。

但总算有个模型可以用了,我们找一句话尝试一下这个模型怎么样。
创新实训(12)——基于seq2seq和attention的文档自动摘要(续)好大啊
结果:
创新实训(12)——基于seq2seq和attention的文档自动摘要(续)
一点效果都没有,白费这么长时间,坑好大啊

相关文章:

  • 2021-11-19
  • 2021-04-30
  • 2021-12-26
  • 2021-09-13
  • 2021-06-24
  • 2022-12-23
  • 2021-04-11
  • 2021-05-12
猜你喜欢
  • 2021-06-16
  • 2021-10-18
  • 2022-01-20
  • 2021-07-19
  • 2021-09-29
  • 2021-06-03
  • 2022-12-23
相关资源
相似解决方案