新闻详情-k8凯发

k8凯发

tel 010-61934861

mail tm@tsingmicro.com

add 北京市海淀区宝盛南路1号院26号楼领智中心南楼2层

k8凯发首页 / 新闻

清华大学尹首一:ai芯片计算架构创新是实现aiot的必然途径 | aiot 智慧城市峰会

time:2019年7月9日 | author:清微智能

文 | 包永刚  来自雷锋网(leiphone-sz)的报道

12月20日,雷锋网主办的aiot 智慧城市峰会在深圳举行,峰会上清华大学微纳电子系副主任、微电子学研究所副所长尹首一教授分享了他对ai算法如何在物联网设备上实现ai功能的看法以及超高能效ai芯片的最新进展。尹教授认为,未来计算架构的创新将是实现无处不在的aiot的必然途径。

iot ai芯片需要解决的核心问题


今天讲到的ai,其核心技术是深度学习,深度学习背后核心技术基础是神经网络。如今已被我们广泛的ai应用,如语音助手、以图搜图,其核心计算大部分都在云上完成。随着物联网场景的拓展,在很多场景中考虑到通讯延时、设备供电以及个人隐私的问题,需要在iot终端以及传感器上实现ai计算。


清华大学微纳电子系副主任、微电子学研究所副所长尹首一教授

国际产业巨头,如谷歌、arm等,均一致认为,未来的ai计算一定是分布式、分层次、分等级的综合系统,这将催生巨大的深度学习芯片市场。据美国tractica咨询公司的统计和预测,2016到2025年这十年间深度学习芯片市场将飞速增长,到2025年市场规模将达到近700亿美金,其中会有近400亿美金的芯片应用在各种移动设备、机器人、无人机、消费电子、可穿戴设备等iot领域。



不过,尹教授指出,要满足iot设备对ai的需求,需要解决的最核心的问题就是ai算力需求和iot场景供电能力之间的巨大反差。

尹教授进一步表示,许多iot的应用对芯片功耗有非常严格的约束,比如我们每天使用的智能手机,用户希望随时随地能够语音唤醒手机、通过语言做自然交互,这就需要手机在具备智能语音识别能力的同时还不影响手机续航。这样的ai计算所能容忍的功耗上限大概是1-2毫瓦,否则手机待机时间就会受到影响。此外,在智能家电、智能眼镜、无人机等场景下,ai计算也面临非常严苛的功耗约束。这就是实现未来ai iot愿景所必须解决的问题,如何在这些苛刻的功耗约束下实现超高能效的ai计算。

aiot的ai芯片必须满足的3个条件

尹教授指出,从应用以及用户体验的角度出发,要实现满足aiot需求的ai芯片必须满足三个条件:


第一, 可编程性,只有具备可编程性才能满足不同iot场景下的不同ai算法的需求;

第二, 对计算密集型和访存密集型算法都非常友好,因为今天的ai算法就具备这样的特点;

第三,超高能效,某些场景下我们希望芯片能耗是毫瓦量级,有些场景甚至需要微瓦量级才能满足长时间的iot计算需求。

超高能效ai计算芯片的进展


目前从aiot芯片发展来看,大家正在从两个不同的维度(算法和架构)努力实现超高能效的ai计算。算法层面努力的方向是让深度神经网络模型更加紧凑。尹教授介绍,2016年开始看到学术界有很大的进展,目前已经能够把神经网络的权重位宽压缩到1bit,使网络模型实现十倍甚至几十倍的缩小。



更值得注意的是,从统计看,在极低位网络中,即便把网络压缩到1-2bit,精度仍然接近于全精度神经网络。最新成果显示,用压缩后的神经网络做检测和识别时与全精度神经网络误差只有1个百分点左右,这个差距在绝大部分的应用场景已经可以忽略不计。

除了算法层面,许多科学家在探索如何从计算架构的角度实现更高能效的ai计算,从2014年开始到今天,学术界和工业界提出了很多ai计算架构方案。但是在未来iot场景里,目前提出的计算架构仍然难以平衡可编程性、超低功耗和特殊网络模型的需求。

从2015年开始,一种新型计算架构,coarse-grained reconfigurable architecture(cgra),获得国际学术界和工业界的广泛关注。 2015年《国际半导体技术路线图》(itrs报告)将其视为未来大有希望的可编程计算架构。2017年美国国防部高级研究计划局(darpa),为了保证美国未来仍然能保持国际电子信息领域的领先地位,发起了“电子复兴计划”,该计划大力布局一项被称为“软件定义硬件”的研究计划。这项计划所研究的是“运行时快速重构”的硬件架构,也就是前面提到的cgra架构。

就在前几天宣布“开源mips指令集”的wave computing公司,雷锋网在《wave computing将于明年提供免费mips架构,mips能在ai时代崛起吗?》一文中也进行了介绍,其ai芯片的技术来源就是cgra。cgra之所以受到广泛关注,正是因为可重构架构能够实现比cpu、gpu、fpga更高的能量效率,同时还具有良好的可编程性,可以很好满足aiot的需求。

可重构芯片的实现

尹教授介绍,清华大学可重构计算团队最早从2006年开始关注可重构架构。过去十多年时间在可重构架构的基础理论上做了很多探索性的工作。2015年开始,将可重构架构应用在ai计算、神经网络计算场景,并设计了thinker系列ai芯片。

具体而言,thinker系列ai芯片区别于传统处理器使用指令级可编程性的技术路线,在核心运算部件、基本处理单元和处理单元阵列等三个层次上实现了硬件可重构能力。比如在基本的乘法累加部件里实现不同位宽的自适应,很好地支持超低位宽的神经网络;在基本处理单元层面实现电路级重构,支持神经网络中的不同算子;在处理单元阵列实现架构级重构,支持不同类型的神经网络。

从2006年开始尹教授的团队已经设计了三款thinker芯片,其最高能效可达每瓦十万亿次运算,最低功耗可达微瓦量级,可以嵌入到任何一个需要ai计算但电池有限的iot设备中。



回顾过去30年间处理器的发展历程,处理器的性能提升得益于半导体工艺进步和计算架构创新的双轮驱动。但随着摩尔定律放缓,半导体工艺的提升越来越有限。尹教授表示,去年图灵奖获得者是两位计算机体系结构的大师john hennessy和david patterson,他们在图灵奖的获奖感言里提到,今天是计算机体系结构的新的黄金时代。这句话很好地诠释了未来我们的技术创新和产业发展应该落脚在哪里。

关闭
网站地图