额手称庆网

多款国产芯片Day0支持智谱GLM-5

来源:额手称庆网-工人日报
2026-04-19 19:35:58

2月11日,智谱AI上线并开源GLM-5,随后多款国产芯片宣布完成对GLM-5的Day0适配(指在产品正式发布或系统上线当天(第0天)就能完全兼容和正常运行的能力)。

海光信息方面表示,在本次Day0适配合作中,海光DCU团队深度协同智谱AI,凭借DTK等自研软件栈优势,重点优化底层算子与硬件加速,使GLM-5在海光DCU上实现高吞吐、低延迟的稳定运行,充分发挥“国产算力+国产大模型”价值。

摩尔线程表示,基于SGLang推理框架,该公司在旗舰级AI训推一体全功能GPU MTT S5000上,Day-0完成了全流程适配与验证。凭借MUSA架构算子覆盖与生态兼容能力,摩尔线程打通了模型推理全链路,并深度释放MTT S5000的原生FP8加速能力,在确保模型精度的同时显著降低了显存占用,实现了GLM-5的高性能推理。

不仅如此,摩尔线程还首次公布了MTT S5000的算力参数。该卡基于第四代MUSA架构“平湖”打造。其单卡AI算力最高可达1000 TFLOPS,配备80GB显存,显存带宽达到1.6TB/s,卡间互联带宽为784GB/s,完整支持从FP8到FP64的全精度计算。

随后有消息传出,目前智谱GLM-5已完成与华为昇腾、摩尔线程、寒武纪、昆仑芯、沐曦、燧原、海光等主流国产芯片平台的深度推理适配与算子级优化,能够在国产算力集群上实现高吞吐、低延迟的稳定运行。

据介绍,智谱GLM-5在Coding与Agent能力上取得开源SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程Agent任务:

参数规模从355B(激活32B)扩展至744B(激活40B),预训练数据从23T提升至28.5T,大幅提升通用智能水平;构建全新“Slime”异步强化学习框架,支持更大模型规模及更复杂强化学习任务,可通过异步智能体强化学习算法持续从长程交互中学习;首次集成DeepSeek Sparse Attention稀疏注意力机制,在维持长文本效果无损的同时,大幅降低模型部署成本、提升Token Efficiency。

一个月前,智谱图像生成模型GLM-Image发布。该模型采用“自回归+扩散解码器”混合架构,是智谱面向“认知型生成”技术范式的一次重要探索,也是首个开源工业表现级离散自回归图像生成模型。

彼时华为计算方面表示,昇腾NPU和昇思MindSpore AI框架提供从数据到训练的全流程支撑,并提出一系列训练性能优化特性,助力智谱高性能训练出首个基于自主创新算力底座全程训练的SOTA模型。

责任编辑:额手称庆网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

客户端

亿万职工的网上家园

马上体验

关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

额手称庆网微信


额手称庆网微博


额手称庆网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。