单卡1000 TFLOPS,摩尔线程旗舰级计算卡首曝,性能逼近Blackwell

半导体产业纵横·2026年02月12日 20:20
摩尔线程MTT S5000实现了对GLM-5的Day0“发布即适配”。

在国产AI算力领域,硬件性能的堆叠往往只是入场券,而软硬协同的生态适配才是决定胜负的关键。随着智谱AI最新一代“国模顶流”GLM-5的发布,这一Coding能力位居全球开源第一、总榜第四的模型迅速引发了行业热议。

与此同时,摩尔线程宣布其AI旗舰级计算卡MTT S5000实现对GLM-5的Day0“发布即适配”,并首次披露了硬件性能参数,不仅单卡算力1000 TFLOPS,并提供原生FP8支持,在显存容量、互联带宽上也与英伟达H100对标。从2024年推出至今,这款专为训推一体设计的全功能GPU智算卡,不仅在纸面参数上对标国际主流产品,更在智源研究院、硅基流动等头部机构的实战检验中,展现出挑战英伟达高端算力的统治力。

摩尔线程究竟做对了什么,使其能够从GLM-4.6一路无缝衔接到GLM-5,让“零时差”适配成为国产算力的常态?

生态的飞跃,GLM-5“Day-0”适配背后的全栈协同

此次GLM-5发布即适配的背后,是摩尔线程软硬协同技术路线的集中爆发。作为定位Agentic Engineering的旗舰模型,GLM-5相较上一代性能提升20%,对长序列推理和复杂系统工程能力提出了极高要求。MTT S5000凭借充沛的算力储备与对稀疏Attention的架构级支持,在大规模上下文处理中依然保持了高吞吐与低延迟,完美承接了GLM-5在长程Agent任务中的计算需求。

更关键的是,MUSA软件栈的敏捷性成为了实现“Day-0”适配的胜负手。基于MUSA架构的TileLang原生算子单元测试覆盖率已超过80%,使得绝大多数通用算子可直接复用,极大降低了移植成本。

通过高效算子融合及框架极致优化,MTT S5000在GLM-5的运行中展现了极低的首字延迟(TTFT)和流畅的生成体验,特别是在函数补全、漏洞检测等Coding核心场景中表现优异。

硬实力的底气,S5000性能逼近Blackwell

MTT S5000性能的首次全面曝光,揭示了国产GPU在架构设计与集群扩展上的成熟度。作为摩尔线程第四代MUSA架构“平湖”的集大成者,S5000在单卡规格上能力接近国际一流水平,搭载80GB显存,显存带宽高达1.6TB/s,卡间互联带宽达到784GB/s,单卡FP8算力更是飙升至1000 TFLOPS,在显存、卡间互联、单卡算力上与英伟达H100基本一致。

此外,MTT S5000对FP8到FP64全精度计算的完整支持,特别是硬件级FP8 Tensor Core的引入,成为了其性能跃升的核心引擎。据接近测试项目的行业人士透露,MTT S5000在产品精度层面已超越H100,技术特性更逼近英伟达下一代Blackwell架构。

来自互联网厂商场景的实测反馈,进一步印证了其在算力上的优势。数据显示,在典型端到端推理及训练任务中,MTT S5000的性能约为竞品H20的2.5倍。分析指出,这主要得益于其高达1000 TFLOPS的单卡算力,在绝大多数计算密集型场景中,该卡不仅能提供更强劲的算力输出,也在整体性价比上展现出显著优势。

基于S5000构建的“夸娥”万卡集群,其浮点运算能力已达10Exa-Flops级别,标志着国产算力在超大规模集群层面迈入了世界前列。在该集群的实测中,S5000展现了极高的算力利用率(MFU),Dense模型训练中MFU达60%,MoE模型维持在40%左右,Flash Attention算力利用率更是超过95%。这得益于摩尔线程独创的ACE技术,该技术通过将复杂的通信任务从计算核心卸载,实现了物理级的“通信计算重叠”,从而释放了15%的被占算力。

实测数据显示,从64卡扩展至1024卡,系统始终保持90%以上的线性扩展效率,这意味着训练速度随算力增加几乎实现了同步倍增,有效训练时间占比超过90%。

顶尖模型训练与推理中的实战中,对标H100

参数之外,真实的落地案例是检验算力成色的唯一标准。摩尔线程S5000在训练与推理两大核心场景中,均交出了令人信服的答卷。在训练端,2026年1月,智源研究院利用S5000千卡集群完成了前沿具身大脑模型RoboBrain 2.5的端到端训练与对齐验证。结果显示,其训练过程与英伟达H100集群高度重合,训练损失值(loss)的差异仅为0.62%,这证明了S5000在复现顶尖大模型训练流程上的精准度与稳定性。用户依托MUSA全栈软件平台,能够原生适配PyTorch、Megatron-LM等主流框架,实现“零成本”的代码迁移,真正做到了兼容国际主流CUDA生态。

在推理端,S5000的表现同样刷新了国产GPU的纪录。2025年12月,摩尔线程联合硅基流动,针对DeepSeek-V3 671B满血版进行了深度适配与性能测试。得益于S5000原生FP8能力与SGLang-MUSA推理引擎的深度优化,在PD分离的部署中,单卡Prefill(预填充)吞吐量超过4000 tokens/s,Decode(解码)吞吐量超过1000 tokens/s。这一成绩不仅大幅降低了显存占用,更在高并发场景下保证了极低的响应延迟。配合首创的细粒度重计算技术,S5000将开销降至原有的1/4,全方位提升了系统吞吐量,证明了其作为高性能在线推理服务底座的卓越实力。

从GLM-4.6、GLM-4.7到如今的GLM-5,摩尔线程通过一次次“发布即适配”的实战,证明了国产全功能GPU及MUSA软件栈已具备极高的成熟度。这种对前沿模型结构与新特性的快速响应能力,不仅为开发者提供了第一时间触达最新模型能力的通道,也为行业筑牢了一个坚实、易用且具备高度兼容性的国产算力底座。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

报道的项目

摩尔线程
我要联系
人工智能和高性能计算平台

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业