期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
一种基于动态量化编码的深度神经网络压缩方法 被引量:8
1
作者 饶川 陈靓影 +1 位作者 徐如意 刘乐元 《自动化学报》 EI CSCD 北大核心 2019年第10期1960-1968,共9页
近年来深度神经网络(Deep neural network,DNN)从众多机器学习方法中脱颖而出,引起了广泛的兴趣和关注.然而,在主流的深度神经网络模型中,其参数数以百万计,需要消耗大量的计算和存储资源,难以应用于手机等移动嵌入式设备.为了解决这一... 近年来深度神经网络(Deep neural network,DNN)从众多机器学习方法中脱颖而出,引起了广泛的兴趣和关注.然而,在主流的深度神经网络模型中,其参数数以百万计,需要消耗大量的计算和存储资源,难以应用于手机等移动嵌入式设备.为了解决这一问题,本文提出了一种基于动态量化编码(Dynamic quantization coding,DQC)的深度神经网络压缩方法.不同于现有的采用静态量化编码(Static quantitative coding,SQC)的方法,本文提出的方法在模型训练过程中同时对量化码本进行更新,使码本尽可能减小较大权重参数量化引起的误差.通过大量的对比实验表明,本文提出的方法优于现有基于静态编码的模型压缩方法. 展开更多
关键词 深度神经网络 模型压缩 动态量化编码 码本更新
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部