计算机工程与科学 ›› 2024, Vol. 46 ›› Issue (09): 1547-1553.
王鹏1,2,张嘉诚1,范毓洋1,2
WANG Peng1,2,ZHANG Jia-cheng1,FAN Yu-yang1,2
摘要: 深度神经网络由于性能优异已经在图像识别、目标检测等领域广泛应用,然而其包含大量参数和巨大计算量,导致在需要低延时和低功耗的移动边缘端部署时困难。针对该问题,提出一种用移位加法代替乘法运算的压缩算法,通过对神经网络进行剪枝和量化将参数压缩至低比特。该算法在乘法资源有限的情况下降低了硬件部署难度,可满足移动边缘端低延时和低功耗的要求,提高运行效率。对ImageNet数据集经典神经网络进行了实验,结果表明神经网络的参数在压缩到4 bit的情况下,其准确率与全精度神经网络的基本一致,甚至在ResNet18、ResNet50和GoogleNet网络上的Top-1/Top-5准确率还分别提升了0.38%/0.22%,0.35%/0.21%和1.14%/0.57%。对VGG16第8层卷积层进行实验,将其部署在Zynq7035上,结果表明,压缩后的网络在使用的DSP资源减少43%的情况下缩短了51.1%的推理时间,并且减少了46.7%的功耗。