源码之家

  • 首页
  • 文章
  • 问答
  • 下载
您的位置: 首页  >  文章  >  论文品读:Learning both Weights and Connections for Efficient Neural Networks

论文品读:Learning both Weights and Connections for Efficient Neural Networks

分类: 文章 • 2024-01-28 10:28:46

https://arxiv.org/abs/1506.02626v3

这是一篇关于模型压缩的15年文章,到目前为止(18年11月)有450的被引

文章介绍了一种参数剪枝(weights pruning)方法,应该算是最基础的一种方法了,直接按照参数是否大于某个阈值来判断哪些参数是重要的,哪些参数是不重要。

在不降低精度的前提下,在VGG-16上取得了13倍的参数压缩率,从138M个参数到10.8M个参数。

论文品读:Learning both Weights and Connections for Efficient Neural Networks

相关推荐

  • 论文品读:Learning both Weights and Connections for Efficient Neural Networks
  • 网络模型剪枝-论文阅读《Learning both Weights and Connections for Efficient Neural Networks》
  • 深度网络推理加速(Learning both Weights and Connections for Efficient Neural Networks)
  • 《Learning both Weights and Connections for Efficient Neural Networks》论文笔记
  • 【Learning both Weights and Connections for Efficient Neural Networks】论文笔记
  • 【论文阅读】韩松《Efficient Methods And Hardware For Deep Learning》节选《Learning both Weights and Connections 》
  • 知识蒸馏(Distillation)相关论文阅读(3)—— FitNets : Hints for Thin Deep Nets
  • 系列论文阅读之知识蒸馏(二)《FitNets : Hints for Thin Deep Nets》
    网站免责声明 网站地图 最新文章 用户隐私 版权申明
本站所有数据收集于网络,如果侵犯到您的权益,请联系网站进行下架处理。   

Copyright © 2018-2021   Powered By 源码之家    备案号:   粤ICP备20058927号