比肩 H100!硅基流动上线基于昇腾云 CloudMatrix 超节点的 DeepSeek-R1

来源:中国网    2025-04-11 16:56
来源: 中国网
2025-04-11 16:56 
分享
分享到
分享到微信

近日,硅基流动创始人袁进辉在华为云生态大会上宣布,硅基流动联合华为云基于 CloudMatrix 384超节点昇腾云服务和高性能推理框架 SiliconLLM,用大规模专家并行最佳实践正式上线 DeepSeek-R1。

该服务在保证单用户 20 TPS水平前提下,单卡 Decode吞吐突破 1920 Tokens/s,可比肩 H100 部署性能。同时,经过主流测试集验证及大规模线上盲测,在昇腾算力部署 DeepSeek-R1的模型精度与 DeepSeek官方保持一致。

其中,通过架构的全面创新,基于新型高速总线架构的 CloudMatrix超节点集群在总算力、互联带宽、内存带宽上领先业界。

此前,硅基流动在大模型云服务平台 SiliconCloud首发推出了基于昇腾云的稳定生产级 DeepSeek-V3 & R1 推理服务,并支持模型私有化集群部署,这次合作推动基于国产算力的 DeepSeek-R1推理服务持续升级。

DeepSeek风暴席卷全球,特别是以其高效、低成本的 MoE架构为应对大模型推理挑战打开了局面。不过,如果没有强大的 AI Infra 技术能力,要想部署好 DeepSeek并非易事。

DeepSeek使用了大规模专家并行(Expert Parallelism,大 EP并行)的 MoE模型架构,若采用单机部署方案,最终的性能远不如 DeepSeek官方公布的部署方案,且至少有数倍成本差距。更具挑战的是,虽然 DeepSeek公开了大 EP 并行方案,但技术难度较大,业内还没有其他团队快速复现这一部署方法。

针对这些难题,硅基流动与华为云联合攻关实现了技术突破。我们在 CloudMatrix 384超节点昇腾云服务上部署 DeepSeek-R1 时采纳了大规模专家并行方案,通过多专家负载均衡和极致通信优化,实现高吞吐及更高性能,大幅提升了用户体验。同时,我们使用昇腾高性能算子库,以及硅基流动推理加速框架 SiliconLLM在模型、机制、算子上的协同优化,实现在国产算力上,不损失模型精度的情况下,获得 DeepSeek-R1 推理效率与资源利用率的显著提升。

硅基流动与华为云的合作不仅提供坚实的全国产软硬件体系部署方案,让 DeepSeek推理服务更经济高效,也展现了 AI 生态合作的强大能量。硅基流动将继续加深与华为云的联合创新,共同提升产品体验,加速模型在更多场景落地。

免责声明:该文章系我网转载,旨在为读者提供更多新闻资讯。所涉内容不构成投资、消费建议,仅供读者参考。
【责任编辑:钟经文】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn