为什么AI计算一定要用GPU?( 三 )


同时,CPU方面的发展并未停滞 。AMD和英特尔的最新CPU内置低级指令,可加速深度神经网络所需的数字运算 。这一附加功能主要有助于“推理”任务,即利用其他已经开发的AI模型 。
但目前来说,要训练人工智能模型 , 首先需要GPU或者类似GPU的大型加速器 。
为特定的机器学习算法创建更专业的加速器是可能的 。例如,最近一家名为Groq的公司生产了一种“语言处理单元”(LPU),专门设计用于沿着ChatGPT的路线运行大型语言模型 。
但历史表明,任何爆火的机器学习算法都很快地达到顶峰然后式微——因此昂贵的GPU或加速器硬件可能很快就过时 。
目前,中国的GPU芯片在市场份额上仍然占据较小的比例 , 但国产GPU芯片的入局者也越来越多,越来越多的国内企业向图形处理领域转型 , 比如芯动科技、景嘉微等,国产GPU芯片也有了更好的发展机遇 。随着美国实施更多的出口管制措施,或将为"中国芯"崛起制造机会窗口 , 这可能导致英伟达在中国市场面临更大的竞争压力 。

【为什么AI计算一定要用GPU?】


推荐阅读