2026年“双子星”合璧:清微智能Day 0适配国产最强开源模型智谱GLM-5.1

“双子星”合璧:清微智能Day 0适配国产最强开源模型智谱GLM-5.1p id 4F0E3H8V 4 月 8 日 智谱 AI 新一代旗舰大模型 GLM 5 1 正式开源 同日 清微智能可重构架构芯片 TX81 RPU 便已 就位 极速完成对 GLM 5 1 全系列模型的 Day 0 全量适配 p p id 4F0E3H91 GLM 5 1 是智谱迄今最智能的旗舰模型 p

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

4月8日,智谱AI 新一代旗舰大模型 GLM-5.1 正式开源。同日,清微智能可重构架构芯片TX81 RPU便已“就位”,极速完成对GLM-5.1全系列模型的Day 0全量适配。

GLM-5.1 是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型,代码能力在最接近真实软件开发的SWE-bench Pro基准测试中超过GPT-5.4、Claude Opus 4.6,刷新全球**成绩。

清微智能依托全栈自主可控的软硬件协同技术,实现模型原生能力无损释放、开箱即“满血”,并打通从推理部署到训练复现的全流程,为国产大模型快速落地提供高效灵活、可靠且低成本的算力支撑。

其实早在去年6月,央媒便将清微智能与智谱华章并称为“清华AI双子星”,国产算力与大模型的协同突围,正共同重构AI生态,成为高阶国产替代的长期主义样本。

此番Day 0适配,不仅彰显了可重构算力基础设施对前沿SOTA模型的快速响应能力,也为行业树立了新型架构芯片赋能复杂AI推理场景的全新标杆。

01.

可重构计算架构

原生算力新底座

本次清微智能高效完成GLM-5.1的Day 0适配,得益于自研可重构计算架构(RPU)与软件栈的深度协同。

针对GLM-5.1长程任务带来的超大上下文显存与持续推理挑战,清微技术团队完成了系统性算子适配与性能调优。

同时,清微自研“可重构网格”互联技术实现了芯片内、芯片间、服务器间三级高效互联,既摆脱了对高端交换机的重度依赖、降低了硬件组网成本,又成倍提升了跨节点数据传输效率,从而稳定承接GLM-5.1的长程任务吞吐与工程级代码推理。


得益于此,搭载TX81芯片的REX1032训推一体服务器,在同等功耗下单机算力反超国际主流芯片,单台即可支撑万亿参数大模型部署,整体解决方案成本降低50%,能效比提升3倍。

02.

软件定义硬件

模型开箱即“满血”

基于TX81芯片的高效适配,GLM-5.1在代码生成、复杂推理、长文本理解等关键任务中,可以完整调用原生模型的全部能力,无算力折损、无精度损失,实现真正的“开箱即满血”。

清微智能TX81为GLM-5.1提供从单机到千卡集群的全场景算力支持,覆盖智能办公、代码开发、AI Agent构建等多样化应用,具备高能效、低成本的特点。

凭借可重构架构的“软件定义硬件”能力,清微实现对GLM-5.1计算特征的动态适配,有效激活成功教程大模型落地中常见的“迁移周期长、适配难度大、性能损耗高”等难题,帮助企业以更优的投入产出比,快速释放GLM-5.1的产业价值。

03.

全栈自研持续深耕

生态建设加速领跑

作为国内新型架构AI芯片领域的代表性企业,清微智能现已实现从IP、芯片到服务器的全栈自研,构建起覆盖“云—边—端”的完整产品矩阵。

在生态层面,清微深度参与智源研究院FlagOS 开源生态建设。

在FlagOS生态的芯片合作厂商中,清微适配模块数量位居前列,特别是在非GPU架构中与华为昇腾分列一二位,稳居国产AI生态建设第一梯队。


眼下,国产AI生态迎来重要窗口期。清微智能将锚定可重构计算技术深耕不辍,持续深化与智谱 AI 等头部大模型厂商、开源社区,以及产业上下游伙伴的协同联动,以适配速度领跑行业,性能表现对标国际、生态支持覆盖全场景的核心优势,让国产算力真正实现从可用到好用。

04.

智谱GLM-5.1

全球最强开源模型

长程任务与代码能力

双突破

GLM-5.1 是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1 大幅提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过 8 小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。

代码能力是模型智能水平进一步提升的关键。以业内最具代表性的三个代码评测基准的平均结果为例,包括衡量模型专业软件开发工作的 SWE-Bench Pro、操作命令行解决问题的 Terminal-Bench 2.0、从零构建完整代码仓库的 NL2Repo,GLM-5.1 取得全球模型第三、国产模型第一、开源模型第一。


在最接近真实软件开发的 SWE-Bench Pro 基准测试中,GLM-5.1 刷新全球**成绩,超过 GPT-5.4、Claude Opus 4.6。SWE-Bench Pro 要求模型在真实 GitHub 仓库中定位并修复高难度工程 Bug,是衡量模型能否胜任专业软件开发的最硬指标。


1

2

3

小讯
上一篇 2026-04-09 18:14
下一篇 2026-04-09 18:12

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/253363.html