谷歌|为AI而生的IPU芯片,或挑战GPU的霸主位?

在CPU芯片领域 , 延续至今的“摩尔定律”正在随着制程工艺逼近物理极限而有了延缓的趋势 , 甚至失效的可能 。就在摩尔定律的增长放缓脚步的同时 , 半导体芯片的计算也正在从通用走向专用 , 其中AI计算正是其中增长最快的一种专用计算 。
现在 , AI计算正在接棒摩尔定律 , 延续并超越其倍增神话 。2019年 , OpenAI发布了AI算力的增长情况 , 结果显示AI算力以3.4个月的倍增时间实现了指数增长 , 从2012年起 , 该指标已经增长了30万倍 。
在AI算力爆炸式增长的过程中 , 英伟达的GPU功不可没 。广为人知的一个故事就是2012年 , 来自多伦多大学的Alex和他的团队设计了AlexNet的深度学习算法 , 并用了2个英伟达的GTX580 GPU进行训练后 , 打败了其他所有计算机视觉团队开发的算法 , 成为那一届ImageNet的冠军 。
此后 , 在计算机视觉和自然语言处理领域 , GPU的高并行计算能力得到了充分的发挥 , 英伟达的GPU也随着AI第三次浪潮的崛起而迎来井喷发展 。与此同时 , 更多为机器学习而专门定制的专用芯片开始出现 , 比如专用集成电路(ASIC)的张量处理单元TPU、神经网络单元NPU以及半定制芯片FPGA等等 。
2018年底 , 英国一家名为Graphcore的创业公司推出了一种专门用于AI计算的处理器芯片IPU(Intelligence Processing Unit) 。一经问世 , IPU就受到AI界越来越多的关注 。
谷歌|为AI而生的IPU芯片,或挑战GPU的霸主位?
文章图片

文章图片

ARM创始人 , 被称为英国半导体之父的赫曼·豪瑟曾为Graphcore的IPU给出很高评价 , 将其誉为“计算机史上三次革命中 , 继CPU和GPU之后的第三次革命” 。赫曼在芯片产业的地位自然不容置疑 , 但由于Graphcore是英国芯片产业中为数不多的新生力量 , 难免赫曼有“护犊子”的打广告之嫌 。
IPU出道2年时间 , 现已推出了量产第二代型号为GC2的IPU 。那么 , IPU的表现如何 , 与GPU相比有哪些优势之处 , 这是本文要重点探讨的问题 。GPU所开启的深度学习
一个广为人们熟知的例子就是 , 在计算机视觉发展初期的2011年 , 谷歌大脑想要在YouTube的视频中识别人类和猫 , 当时这样一个简单的任务 , 谷歌要动用一家大型数据中心内的 2,000 颗服务器 CPU , 这些CPU的运行会产生大量的热量和能耗 , 关键是代价不菲 , 很少能有研究人员可以用得起这种规模的服务器 。
谷歌|为AI而生的IPU芯片,或挑战GPU的霸主位?
文章图片

文章图片

不过在当时 , 研究人员注意到了英伟达的GPU , 斯坦福大学的吴恩达团队开始和英伟达合作 , 将GPU应用于深度学习 。后来证明 , 只需要12颗英伟达GPU就可以达到相当于2000颗CPU提供的深度学习性能 。此后越来越多的AI研究人员开始在GPU上加速其深度神经网络 (DNN)的训练 。
谷歌|为AI而生的IPU芯片,或挑战GPU的霸主位?
文章图片

文章图片

现在我们都知道 , GPU能够在深度学习的训练中大显身手 , 正是源于GPU的计算架构正好适用于深度学习的计算模式 。深度学习是一种全新的计算模式 , 其采用的DNN算法包含数十亿个网络神经元和数万亿个连接来进行并行训练 , 并从实例中自己学习规律 。
深度学习算法主要依赖的基本运算方法有矩阵相称和卷积浮点运算 , 而GPU多核架构在原本图像渲染中可以大规模处理矩阵乘法运算和浮点运算 , 很好地可以处理并行计算任务 , 使得DNN训练速度大幅提升 。
此后 , GPU成为辅助完成深度学习算法的主流计算工具 , 大放异彩 。但GPU本身并非是专门为AI计算而设计的芯片 , 其中有大量的逻辑计算对于AI算法来说毫无用处 , 所以行业自然也需要专门针对AI算法的专用AI芯片 。


推荐阅读