https://arxiv.org/abs/1506.02626v3

这是一篇关于模型压缩的15年文章,到目前为止(18年11月)有450的被引

文章介绍了一种参数剪枝(weights pruning)方法,应该算是最基础的一种方法了,直接按照参数是否大于某个阈值来判断哪些参数是重要的,哪些参数是不重要。

在不降低精度的前提下,在VGG-16上取得了13倍的参数压缩率,从138M个参数到10.8M个参数。

论文品读:Learning both Weights and Connections for Efficient Neural Networks

相关文章:

  • 2021-08-13
  • 2021-05-11
  • 2021-08-22
  • 2021-12-28
  • 2021-12-19
  • 2021-08-08
  • 2021-05-21
  • 2021-11-30
猜你喜欢
  • 2021-07-05
  • 2021-04-18
  • 2021-04-05
  • 2021-06-17
  • 2021-04-16
  • 2021-05-30
  • 2022-12-23
相关资源
相似解决方案