人工智能|5G 时代,高通如何释放 AI 全部实力( 二 )


云端 AI 相辅 , 侧终端 AI“相成”
5G 将引领我们进入一个万物互联的新时代 , 我们日常生活中的手机、电视、汽车、冰箱、空调、灯、音箱等等智能终端设备 , 在 5G 的联结下 , 都将汇入同一网络 , 海量终端设备彼此独立 , 又互联互通 , 让这些设备彼此通信连接 , 就需要进行 AI 运算 。 那么这些 AI 运算是放在云端呢?还是在本地终端运行?高通给出的答案是终端侧 AI 。
人工智能|5G 时代,高通如何释放 AI 全部实力
本文插图
【人工智能|5G 时代,高通如何释放 AI 全部实力】


终端侧 AI , 顾名思义 , 它的意思就是数据的采集、计算、决策都在前端设备本地进行 。 与在云端运行的 AI 相比 , 在终端侧运行人工智能算法具有诸多优势 , 例如即时响应、可靠性提升、隐私保护增强 , 以及高效利用网络带宽 。 而云端 AI 在这个过程中 , 是作为终端侧处理的补充而存在 , 比如在一些汇集大数据、训练神经网络模型以及运行很复杂或依赖终端外数据的一些推理上 , 云端 AI 有着一定的作用 。 不过 , 终端设备完全依靠云端 AI 处理并不现实 , 目前全球已有数十亿的联网终端 , 未来只会越来越多 , 海量终端彼此互连并感知周围环境 , 产生的海量数据全部传给云端进行处理和管理 , 不容易 , 更影响体验 。 因此 , 终端侧 AI 是更适合的选择 。
在终端侧大规模运行推理 , 就不得不引出另外一个关键词——能效 。 还是以智能手机为例 , AI 运算本身需要反复、高强度的运算环境 , 智能手机的计算能力、电池、存储空间等方面都可能是个问题 , 而高通给出的解决方法 , 是在 AI Engine 中引入 Hexagon 张量加速器 。 Hexagon 支持的是 8 位和 16 位的定点运算 , 而定点运算有助于模型更快的运行 , 同时能耗也更低 , Hexagon 张量处理器的加入 , 可以大大提高 AI Engine 的整体运算效率 , 降低功耗 。

人工智能|5G 时代,高通如何释放 AI 全部实力
本文插图

此外 , 移动端很多 AI 用例都是并行用例 , 在处理这些用例的时候 , 往往有大量数据进入到终端 , 处理这些海量数据 , 一定会对手机的性能资源、功耗造成不小压力 。 针对这个问题 , 高通在 AI Engine 中开发了一项全新的专用技术 , 叫做深度学习带宽压缩 。 这项技术能够对这些海量数据进行高达 50% 的压缩 , 从而将需要进入到芯片处理的数据压缩一半 , 以节省电能、降低功耗 。
高通认为 , 我们正处于机器学习发展征程的最初期 , 深度学习也仅是具备改变计算潜力的多项机器学习技术之一 。 随着 5G 发展壮大并建立起统一的连接架构 , AI 将带来巨大的社会效益 , 而高通 , 正在持续推进这个过程 。
【来源:IT之家】
声明:转载此文是出于传递更多信息之目的 。 若有来源标注错误或侵犯了您的合法权益 , 请作者持权属证明与本网联系 , 我们将及时更正、删除 , 谢谢 。邮箱地址:newmedia@xxcb.cn


推荐阅读