基于关系型蒸馏的分步神经网络压缩方法
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

陕西省自然科学基金(2019JQ-849)


Compression Method for Stepwise Neural Network Based on Relational Distillation
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    针对关系型知识蒸馏方法中教师网络与学生网络的层数差距过大导致蒸馏效果下降的问题, 提出一种基于关系型蒸馏的分步神经网络压缩方法. 该方法的要点在于, 在教师网络和学生网络之间增加一个中间网络分步进行关系型蒸馏, 同时在每一次蒸馏过程中都增加额外的单体信息来进一步优化和增强学生模型的学习能力, 实现神经网络压缩. 实验结果表明, 本文的方法在CIFAR-10和CIFAR-100图像分类数据集上的分类准确度相较于原始的关系型知识蒸馏方法均有0.2%左右的提升.

    Abstract:

    This study aims at the problem that the distillation effect decreases when the gap between the teacher network and the student network in relational knowledge distillation is too large. A stepwise neural network compression method based on relational distillation is proposed. The key point of this method is to add an intermediate network between the teacher network and the student network for relational distillation step by step. Moreover, in each distillation process, additional monomer information is added to further optimize and enhance the learning ability of the student model. The experimental results show that the classification accuracy of the proposed method on CIFAR-10 and CIFAR-100 image classification datasets is improved by about 0.2% compared with that of the original relational knowledge distillation method.

    参考文献
    相似文献
    引证文献
引用本文

刘昊,张晓滨.基于关系型蒸馏的分步神经网络压缩方法.计算机系统应用,2021,30(12):248-254

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2021-02-24
  • 最后修改日期:2021-03-15
  • 录用日期:
  • 在线发布日期: 2021-12-10
  • 出版日期:
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号