崔浩然,李涵,冯煜晶,吴萌,王超,陶冠良,张志敏
CUI Haoran,LI Han,FENG Yujing,WU Meng,WANG Chao,TAO Guanliang,ZHANG Zhimin
摘要:
互联网时代信息量的爆炸式增长、深度学习的普及使传统通用计算无法适应大规模、高并发的计算需求。异构计算能够为深度学习释放更强的计算能力,达到更高的性能要求,并可应用于更广阔的计算场景。针对深度学习算法,设计仿真了一款完整的异构计算SoC架构。首先,通过对常用深度学习算法,如GoogleNet、LSTM、SSD,进行计算特征分析,将其归纳为有限个共性算子类,并用图表及结构框图的形式进行展示,同时生成最小算子级别伪指令流。其次,根据提取的算法特征,进行面向深度学习的硬件加速AI IP核设计,构建异构计算SoC架构。最后,通过仿真建模平台进行实验验证,SoC系统的性能功耗比大于1.5 TOPS/W,可通过GoogleNet算法对10路1 080 p 30 fps视频逐帧处理,且每帧端到端的处理时间不超过30 ms。