光子张量CPU:迸发5G机器学习新活力

翻译自——EEtimes
 
近期,一种用光子张量处理器代替GPU来进行机器学习的神经网络计算的新方法表明,在处理光学数据传输的性能上可以提高2-3阶 。这也表明光子处理器具有增强电子系统的潜力,并可能在5G网络边缘设备中表现强劲 。
 

光子张量CPU:迸发5G机器学习新活力

文章插图
 
 
美国乔治华盛顿大学电子和计算机工程系的Mario Miscuglio和Volker Sorger在《应用物理评论杂志》上发表了一篇论文,题为《基于光子的处理单元使更复杂的机器学习成为可能》 。
 
在他们的方法中,光子张量核并行执行矩阵乘法,这提高了深度学习的速度和效率 。在机器学习中,神经网络被训练来学习如何在不可见的数据上执行无监督的决策和分类任务 。一旦神经网络对数据进行了训练,它就可以产生一种推断,从而对对象和模式进行识别和分类,并在数据中找到一个特征 。
 
光子TPU并行存储和处理数据,具有电光互连的特点,可以有效地读写光存储器,并与其他架构进行接口 。
 
作者之一Mario Miscuglio表示:“我们发现集成了高效光存储的集成光子平台可以获得与张量处理单元相同的操作,但它们只消耗一小部分的功率,并具有更高的吞吐量,如果经过适当的训练,可以用于以光速进行推理 。”
 
大多数神经网络旨在模仿人类大脑的多层相互连接的神经元 。表示这些网络的一种有效方法是将矩阵和向量相乘的复合函数 。这种表示方式允许通过专门用于向量化操作(如矩阵乘法)的架构来执行并行操作 。
 
光子张量CPU:迸发5G机器学习新活力

文章插图
 
 
(a)光子张量核(PTC)由一个16点积引擎组成,内在独立地逐列逐行逐点乘法和累加 。点积引擎执行两个向量之间的乘法 。输入矩阵的第i行由由高速(如马赫-曾德尔)调制器调制的波分复用信号给出 。通过适当设置核矩阵的权值状态,将核矩阵的第j列加载到光子存储器中 。利用光-物质与相变存储器的相互作用,利用微环谐振器(MRR)对输入信号进行频谱滤波,并采用看似量子化的电吸收方案进行加权 。(例如调幅),从而执行按元素进行的乘法 。使用光检测器将元素式乘法非相干求和,这相当于mac操作(Dij) 。
 
任务越智能化,预测精度就越高,网络就越复杂 。这样的网络需要更大的计算量和更大的处理能力 。当前适合于深度学习的数字处理器,如图形处理单元(GPU)或张量处理单元(TPU),由于所需的功率以及处理器和存储器之间电子数据的缓慢传输,在执行更复杂、更精确的操作方面受到了限制 。
 
研究人员表明,他们的TPU性能可以比电子TPU高出2-3个数量级 。对于计算节点分布式网络和在网络边缘(如5G)执行高吞吐量智能任务的引擎来说,光子可能是一个理想的匹配 。在网络边缘,数据信号可能已经以来自监控摄像机、光学传感器和其他来源的光子的形式存在 。
 
Miscuglio:“光子专用处理器可以节省大量的能源,提高响应时间并减少数据中心的流量 。”对于终端用户来说,这意味着处理数据的速度要快得多,因为数据的很大一部分是预处理的,这意味着只需要将其余部分数据发送到云或数据中心 。
 
光与电的较量
 
本文给出了利用光路完成机器学习任务的实例 。在大多数神经网络(NNs)中,每一个神经元和每一层,以及网络的互连,都是训练网络的关键 。根据训练,在其连通层中,神经网络强烈依赖于向量矩阵的数学运算,其中输入数据和权重的大矩阵根据训练相乘 。复杂的、多层的深层神经网络需要大量的带宽和低延迟,以满足执行大矩阵乘法所需的大量操作,而不牺牲效率和速度 。
 
那么如何有效地将这些矩阵相乘呢?对于通用处理器,矩阵操作在需要连续访问缓存内存的情况下串行进行,从而产生冯·诺依曼瓶颈[1] 。而GPU和TPU等特殊的架构,有助于减少这些冯·诺依曼瓶颈的影响,使一些有效的机器学习模型成为可能 。
 
与CPU相比,GPU和TPU意义重大,但是当用它们来实现深度神经网络对大型2维数据集(如图像)执行推断时,可能会耗电,并且需要更长的计算运行时间(大于几十毫秒) 。对于不那么复杂的推理任务来说,更小的矩阵乘法仍然受到不可忽略的延迟挑战,主要是由于各种内存层次的访问开销和GPU中执行每条指令的延迟 。


推荐阅读