从新一代昇腾AI云服务,俯瞰AI算力的云上变局
中国AI算力面临的困局
过去:AI算力的外部限制
自1996年《瓦森纳协定》签订以来,美国长期主导对中国的芯片出口限制。AI时代,AI算力成为科技铁幕的核心焦点。近几年,美国持续加码对中国的AI算力限制,曾经占据中国AI算力市场份额超95%的英伟达GPU,不断在被禁与推出阉割版之间徘徊,导致AI算力获取困难且成本高昂。
现在:大模型崛起带来的算力需求
随着以DeepSeek为代表的国产大模型崛起,以及AIAgent等应用爆发,中国大模型需要更强大的训练推理能力支撑。例如,要让AIAgent走向大规模应用,就需要CPU与NPU之间强大的高速通信能力,而传统计算架构已难以满足这些算力需求。
未来:为AGI未雨绸缪
AI大模型还在快速发展,未来可能迎来训练参数量达百万亿的大模型,这将使AI算力需求呈百万倍提升。同时,自动驾驶、元宇宙等领域的创新,让复杂的多元融合计算成为主流,因此必须提前发展算力底座,以支撑未来近乎无尽的AI想象力。
新一代昇腾AI云服务的破局之道
技术创新架构
在2025年华为开发者大会(HDC 2025)上,华为常务董事、华为云计算CEO张平安宣布基于CloudMatrix384超节点的新一代升腾AI云服务全面上线。该服务首创将384颗升腾NPU和192颗鲲鹏CPU通过全新高速网络MatrixLink全对等互联,形成一台超级AI服务器,单卡推理吞吐量跃升到2300Tokens/s,与非超节点相比提升近4倍。
提升推理效率
超节点架构能更好地支持混合专家MoE大模型的推理,可实现一卡一专家,一个超节点能支持384个专家并行推理,极大提升了效率。同时,超节点还支持一卡一算力任务,灵活分配资源,提升任务并行处理能力,减少等待时间,将算力有效使用率(MFU)提升50%以上。
支持大模型训练与集群扩展
对于万亿、十万亿参数的大模型训练任务,在云数据中心,可将432个超节点级联成最高16万卡的超大集群。此外,超节点支持训推算力一体部署,如日推夜训,训推算力可灵活分配,帮助客户实现资源使用的最优化。
新一代昇腾AI云服务的应用成效
目前,升腾AI云服务已成为AI基础设施的最优选择,为超过1300家客户提供澎湃的AI算力,加速千行万业的智能化升级。例如,新浪与华为云深度合作,基于CloudMatrix384升腾AI云服务,为智慧小浪智能服务体系构建了统一的推理平台,推理交付效率提升超50%,模型上线速度成倍加快,通过软硬协同调优,NPU利用率提升超40%;硅基流动使用CloudMatrix384超节点,为数百万用户高效提供DeepSeekV3、R1的推理服务;面壁智能使用该超节点,其小钢炮模型的推理业务性能得到了2.7倍提升
对AI算力云上变局的影响
新一代昇腾AI云服务本质上改变了固化的AI算力形态,改变了以单卡为中心的AI算力供应模式,找到了云服务这种最契合大模型推训的算力获取方式,直击中国AI算力自主化的需求。它让中国AI算力有了从底层改写规则的可能,推动中国AI算力向多卡集群方向发展,用集约式计算提升算力资源利用率,搭建更符合大规模计算需求的超节点,有望使中国AI算力摆脱外部限制,实现自主、高效的发展,从而在AI算力的云上变局中占据更有利的位置