论坛主题
机器学习硬件专题
论坛简介
达摩院2020年十大科技趋势白皮书指出,计算存储一体化方案可以突破AI算力瓶颈。通过将存储和计算单元融合为一体,该方案可以显著减少数据搬运,极大提高计算并行度和能效。阻变存储器(ReRAM)作为一种存内计算方案,在实现高能效神经网络计算系统方面具有重要前景。本期论坛我们邀请到了来自中科院计算技术研究所的何银涛同学,分享她在基于ReRAM的状态感知神经网络加速器设计方面的工作。
论坛讲者
何银涛
何银涛,中科院计算所计算机体系结构国家重点实验室直博二年级。主要研究方向为存内计算、高能效神经网络加速器设计,曾在计算机系统结构会议DAC、ICCAD上发表一作论文。
报告题目:面向状态感知的ReRAM神经网络计算方法
报告摘要:随着神经网络模型参数量不断增加,传统的冯诺依曼计算架构受限于数据搬运瓶颈,逐渐难以满足数据驱动的人工智能应用需求。阻变存储器(ReRAM)作为一种存内计算方案,在实现高能效神经网络计算系统方面具有重要前景。随着映射到ReRAM的神经网络参数大幅增加,计算开销同样会急剧增长。其中,ReRAM计算阵列功耗占整体的重要部分。因此,针对ReRAM计算阵列上的功耗优化问题,我们提出了一种状态感知算法与硬件的协同优化,包括:一种基于ReRAM的权重状态感知神经网络加速器和低功耗神经网络状态感知模型训练方法。实验表明,在保证神经网络准确率的前提下,该方法大幅降低了ReRAM阵列的计算功耗。
Spotlight:
本文利用ReRAM的阻值状态与读电流的关系,提出了一种基于ReRAM的状态感知神经网络加速器设计;
提出了一种低功耗神经网络状态感知模型训练方法,进一步降低计算功耗;
实验结果表明,本方法能有效降低ReRAM计算开销,且具有可扩展性,同时适用于高精度的神经网络。
召集人
樊海爽
樊海爽,中国科学院计算技术研究所直博生,导师为鄢贵海研究员。主要研究方向为专用处理器技术与智能计算。
论文推荐
“ 本期推荐的文章主要关注于机器学习领域,你可以认真阅读讲者推荐的论文,来与讲者及同行线上交流哦。”
关注文章公众号
回复"SFFAI81"获取本主题精选论文
经典论文
01