当前位置:   article > 正文

(笔记)通过知识蒸馏和量化进行模型压缩MODEL COMPRESSION VIA DISTILLATION AND QUANTIZATION_将量化和知识蒸馏结合的方法

将量化和知识蒸馏结合的方法

(笔记)Model Compression via Distillation and Quantization

原文链接:

https://arxiv.org/abs/1802.05668

代码:

https://github.com/antspy/quantized_distillation

摘要

主要介绍了两种算法。
1)加入知识蒸馏loss的量化训练。
2)训练量化集p。

算法一:加入知识蒸馏loss的量化训练

有一个浮点模型w,一个量化模型w^q,用量化模型计算前向loss(加上知识蒸馏的loss),对w^q计算梯度,用以更新浮点模型。每次前向计算之前用更新的浮点模型更新量化模型。
这里写图片描述

算法二:训练量化集p

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号