|边缘AI新方法TinyML,超低功耗,在边缘设备进行机器学习


选自towardsdatascience
作者:Matthew Stewart
机器之心编译
编辑:陈萍
人工智能 AI 正在加快速度从云端走向边缘 , 进入到越来越小的物联网设备中 。 而这些物联网设备往往体积很小 , 面临着许多挑战 , 例如功耗、延时以及精度等问题 , 传统的机器学习模型无法满足要求 , 那么微型机器学习又如何呢?
|边缘AI新方法TinyML,超低功耗,在边缘设备进行机器学习
本文插图

在 NASA 的推动下 , 小型化的电子产品成为了一个完整的消费品行业 。 现在我们可以把贝多芬的全部音乐作品放在翻领针上用耳机听 。 ——天体物理学家兼科学评论员尼尔 · 德格拉斯 · 泰森 (Neil deGrasse Tyson)
超低功耗嵌入式设备随处可见 , 再加上用于微控制器的 TensorFlow Lite 等嵌入式机器学习框架的引入 , 这些使得人工智能驱动的物联网设备大规模普及 。 ——哈佛大学副教授 Vijay Janapa Reddi
|边缘AI新方法TinyML,超低功耗,在边缘设备进行机器学习
本文插图

嵌入式设备的微型机器学习(TinyML)示意图 。
本文关于微型机器学习系列文章的第一篇 , 旨在向读者介绍微型机器学习的概念及其未来的潜力 。 后续文章将深入讨论特定应用、实现和相关教程 。
TinyML 简介
在过去的十年里 , 我们已经看到 , 由于处理器速度的提升和大数据的出现 , 机器学习算法的规模呈指数级增长 。 最初模型很小 , 在本地计算机上可以使用 CPU 中的一个或多个内核运行 。
不久之后 , 使用 GPU 的计算成为处理更大数据集的必要条件 , 而且由于引入了云服务 , 如 SaaS 平台(谷歌 Google Colaboratory)和 IaaS(Amazon EC2 Instances) , 计算变得更加容易获得 。 此时 , 算法仍然可以在单机上运行 。
近来 , 专用集成电路(ASIC)和张量处理单元(TPU)的发展 , 它们可以容纳 8GPU 左右的功率 。 这些设备增强了跨多个系统分布学习的能力 , 并试图发展越来越大的模型 。
随着 GPT-3 算法(2020 年 5 月)的发布 , 这种情况达到了顶点 , 其网络结构包含惊人的 1750 亿个神经元——是目前存在于人类大脑中的两倍多(约 850 亿) 。 这是有史以来第二大神经网络神经元数量的 10 倍——Turing-NLG(2020 年 2 月发布 , 包含约 175 亿个参数) 。 一些人估计称 , 模型的训练成本约为 1000 万美元 , 使用了大约 3 GWh 的电力(大约是三个核电站一小时的发电量) 。
虽然 GPT-3 和 Turing-NLG 的成就值得赞扬 , 但一些业内人士批评人工智能产业的碳足迹越来越大 。 然而 , 这也有助于激发人工智能界对更节能计算的兴趣 。 诸如更有效的算法、数据表示和计算 , 它们一直是微型机器学习的焦点 。
微型机器学习(TinyML)是机器学习和嵌入式物联网(IoT)设备的交集 。 该领域是一门新兴的工程学科 , 有可能使许多行业产生革命性变革 。
TinyML 的行业受益者是边缘计算和节能计算 , 其源于物联网(IoT)的概念 。 物联网的传统理念是将数据从本地设备发送到云上进行处理 。 一些人对这个概念提出了以下几个方面的担忧:隐私、延迟、存储和能源效率 。
能源效率:传输数据(通过电线或无线)是非常耗能的 , 比板载计算(特别是乘积单元)的耗能多一个数量级 。 开发能够自己进行数据处理的物联网系统是最节能的方法;
隐私:传输数据可能会侵犯隐私 。 数据可能被恶意的参与者截获 , 并且当数据存储在一个单一的位置(如云)时 , 其安全性就会降低 。 通过将数据保存在设备上并尽量减少通信 , 能够提高数据安全性和隐私性;
存储:对许多物联网设备来说 , 所获得的数据毫无价值 。 想象一下 , 一个安全摄像头一天 24 小时都在记录一座大楼的入口 。 在一天的大部分时间里 , 摄像机的镜头毫无用处 , 因为什么都没有发生 。 通过一个更智能的系统 , 必要时激活 , 降低存储容量 , 传输到云端所需的数据量会减少;


推荐阅读