中国AI产业的算力瓶颈:现状、挑战与未来

苹果WWDC的成果表明,AI推理算力在未来三到五年内仍将主要依赖云端。即使是苹果,也难以实现大规模AI推理的端侧化。这对于其他手机厂商和PC厂商而言更是如此。

 

技术和成本因素决定了大模型及应用开发商更倾向于在云端进行推理任务,这与WWDC后苹果股价下跌、英伟达股价微涨的市场反应相符。

 

国内AI算力紧缺问题并非通过发展端侧算力就能解决。全球AI算力普遍紧缺,尤其是在制造端,英伟达H系列显卡产能受限,美国芯片出口禁令也加剧了国内厂商的采购难度。

 

国内AI算力缺乏,不仅体现在推理算力上,训练算力也同样不足。虽然此前云游戏产业间接积累了一定推理算力,但仍然无法满足需求。

 

目前,国内大模型的降价策略更多是行为艺术,因为关键问题在于算力供应不足。“有价无市”的现状导致大规模采购难以实现,价格远高于官方价格。不仅B端用户受影响,C端用户也因算力不足导致应用排队,免费用户体验受损。

 

训练算力的紧缺程度甚至超过推理算力。字节跳动此前构建的“万卡集群”远落后于Meta等美国科技巨头的H100集群。随着芯片禁令的加强,国内厂商获取先进显卡的难度越来越大,这也导致国内大模型厂商普遍亏损。

 

算力紧缺导致算力价格高昂,国内大模型厂商难以覆盖成本,创业公司高度依赖少数大型科技公司。这使得大模型创业在国内远不如移动互联网时代容易。

 

针对目前国内AI算力储备及分布,训练用的“大卡”数量虽然不少,但与美国相比仍有很大差距。算力分布上,阿里等云计算大厂掌握了大量算力,但其中很大一部分用于出租,自家大模型能调用的算力未必有绝对优势。推理算力的分布则更加分散,部分来自之前的云游戏算力。

 

关于AI算力的国产替代,在训练端难度极大,但在推理端则有一定可能性。虽然部分国产推理卡在某些特定技术路线下可能性能优越,但其应用场景狭窄,难以满足大厂的需求。

 

绕过芯片禁令的可能性很小,因为高端显卡供不应求,且绕过官方渠道获得显卡也难以获得技术支持。高阶显卡通常以服务器为单位出售,且可能植入地理位置判断系统,因此绕过禁令难度很大。

 

国内AI产业面临着严重的算力瓶颈,这将长期影响国内AI产业的发展。解决这一问题需要多方面努力,既要寻求技术突破,也要积极探索解决途径,并对问题难度有充分的估计,才能找到切实可行的解决方案。

 

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注