GPU英伟达终于成为下一个万亿芯片市场掌舵者( 三 )
这又在一定程度上证明 , 谷歌、亚马逊、微软、阿里等云服务商自研云端AI训练或推理芯片是大势所趋的;但目前来看 , 自研产品发挥的作用还是有限的 。
不过这至少意味着 , 尽管英伟达地位稳固 , 但跌下神坛并非不可想象 。
“其实不仅仅是成本层面 , 随着深度学习和音视频转码的场景越来越复杂 , 单纯的GPU云服务器机型可能并不能满足所有需求 。
所以现在大多云服务厂商都推出了基于FPGA、NPU等芯片的不同服务器机型 。 还有一些针对云游戏、推理等场景的轻量级vGPU 。 ” 一位半导体行业人士认为 , 随着很多其他芯片巨头陆续推出不同的方案 , 英伟达并非是唯一的选择 。
此外 , 他认为虽然理论上 , GPU卡越多 , 整体算力越大 。 但是随着服务器数量的增加 , 不同机器的GPU之间配合难度也会越来越大 , 单张GPU卡的利用率反而会下降 。
“所以说 , 增加了几十倍的卡成本 , 但性能却很难随之线性增长 。 ”
然而 , 英伟达的聪明之处 , 或许就在于“小”到在一块芯片上顺应主流技术趋势 , “大”到也在试图让孤立于不同服务器内的GPU卡之间产生更好的集群效应 。
没错 , 在历时1年击败英特尔、赛灵思等强大竞争对手 , 最终完成对Mellanox的收购后 , 这家网络技术隐形巨头正式成了英伟达在数据中心市场的第二条“护城河” 。
如同上面所说 , 处理海量数据(603138,股吧)和数据迁移所需的计算能力必须非常强大 。 而显而易见的问题是 , 这些数据通常存储在服务器无法立即访问的存储空间中 。
如果网络不能有效利用这些数据 , 让数据之间产生流动 , 那么世界上所有的计算能力就不再重要了 。
因此 , 利用Mellanox最擅长的通信技术 , 理论上 , 便能够将数据中心数万个计算节点上的GPU连接起来 , 汇聚成更加庞大的算力 。
很显然 , 面对正在全球不断扩建 , 数量正在急剧增长的数据中心 , 这无疑是英伟达一个非常重要的竞争优势 。
图片
图片来自谷歌
腾讯云资源管理总监阮梦在前几天的一场小型数据中心交流会曾指出 , 从2019年数据中心建设的走向来看 , 虽然相比北美超大型数据中心 , 我国在这个领域还有很多不足 , 但国内超大型数据中心的建设已悄然提速 。
“随着数据中心建设速度加快 , 我们服务器量级会从100万台 , 往200万-400万这种级别去发展 。
所以一方面服务器采购投入会持续加大 , 另一方面 , 服务器之间非常需要好的网络质量和网络互联 。 ”
必要的硬件与软件升级 , 当然就需要采用更适合复杂云上任务训练的企业级AI芯片 , 以及更加灵活和多样化的服务器结构 。
“就目前来看 , 在通用型服务器中 , GPU的使用占比还非常小 , 合适的任务还没有那么多 。 但GPU部署的增速是非常快的 。 ”
不过腾讯云技术中心资深技术专家李典林也指出 , 对于数据中心建设者来说 , 考虑的绝不仅仅是服务器等硬件成本问题 。
“譬如一线城市周边合适的建设地点就相对紧缺 , 但一些偏远地区的网络条件就没有那么好 。
而且GPU模块的功耗比普通服务器芯片要大很多 , 所以要进行特殊的机房设计与网络设置 , 那电力方面是不是要争取更多的优惠……
但从整体来看 , 这是一个不可忽视的数据中心变革趋势 。 ”
而国家对新基建的推动浪潮 , 似乎又在进一步催化这个趋势 。
因此 , 不知随着英伟达Ampere企业级GPU的发布与量产 , 以及阿里等云计算巨头们云端芯片在2020年商用速度的进一步加快 , 会不会给中国云计算基础设施市场带来新一轮洗牌 。
资本市场的胜利者
由此来看 , 借着V100、T4等产品在数据中心打开的市场切口 , 英伟达推出这块被黄仁勋自嘲是“史上最大显卡”的目的 , 就是自己在华尔街近1年来受到众星捧月般待遇的最大缘由:
推荐阅读
- 驱动之家|NVIDIA:7nm安培是有史以来最强大的GPU
- |小米快跟进!华为新专利曝光:屏下摄像头终于要来了
- 美股研究社|全新GPU横空出世后,英伟达将继续“跑赢大盘”?
- 互联网乱侃先生|国产机们不用再看高通脸色?超级芯片巨头入场,GPU比高通强很多
- 微信号|微信终于有这个功能了!网友:一个重新做人的机会
- 信号微信号终于能改了?
- 科技时尚推送|华为技术新突破 GPU Turbo技术确实很吓人
- 空间站龙飞船与国际空间站对接成功,直播五位宇航员太空汇合!马斯克终于松了一口气
- 科技小语|iPhone大降1629元,苹果A13+iOS系统+IP68防水,网友:终于等到了
- 搞机小帝|iPhone12概念图:对iPhone11说再见吧,苹果终于不再保守