2026年GLM-5开源发布:744B参数逼近Claude Opus 4.5

GLM-5开源发布:744B参数逼近Claude Opus 4.5blockquote p 导读 国产开源大模型 GLM 5 在深夜 发布即开源 参数规模从 355B 32B 激活 提升到 744B 40B 激活 并在多项权威评测中冲到开源模型前列 更关键的是 它在 AI Coding 长任务规划与 Agent 检索等维度呈现出逼近 Claude Opus 4 5 的趋势 同时保持更友好的 token 消耗与定价 p blockquote

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 
  
    
    

【导读】国产开源大模型GLM-5在深夜“发布即开源”,参数规模从355B(32B激活)提升到744B(40B激活),并在多项权威评测中冲到开源模型前列。更关键的是,它在AI Coding、长任务规划与Agent检索等维度呈现出逼近Claude Opus 4.5的趋势,同时保持更友好的token消耗与定价,并提供面向开发者的Coding套餐与工具接入方案,推动“高端编程模型可用性”在国内进一步下沉。

GLM系列延续了“发布即开源”的路径,而GLM-5作为全新大版本号,升级不止体现在体感层面的“更聪明”,其基础规模与工程形态也出现显著变化。

1)参数与激活规模上调:744B(40B激活)
相较GLM-4.7时期的355B(32B激活),GLM-5扩展到744B参数(40B激活)。从结构上看,参数量接近翻倍,而激活规模也随之上行,这通常意味着模型在复杂推理、长链条规划、工具调用稳定性等方面拥有更充足的容量与表示能力。



2)开源与可用性并行:面向国内开发者的“可落地”路径
讨论大模型的意义,最终往往会回到两个现实问题:能不能用、用得起。GLM-5在保持开源的同时,也提供了更贴近开发者工作流的使用方式,例如面向AI Coding的套餐化产品,以及与常见Coding Agent工具的适配方案,使得“国内可用、低门槛上手”的特征更突出。



3)“匿名模型”猜测落地:生态平台信号强化版本确认
在模型生态平台上,曾出现过一款匿名的Pony Alpha模型引发社区猜测,被讨论可能来自DeepSeek V4或GLM-5。随着GLM-5正式公开发布,相关线索也更容易被市场重新对齐:一方面是性能表现的相似性,另一方面是工具链、价格策略与开源节奏等“外部特征”更一致。



如果说“能写代码”已经成为大模型基础能力,那么2026年的分水岭更可能是:谁能在真实工程任务中稳定交付,谁能在Agent化工作流里更好地规划、检索、执行与迭代。

1)Artificial Analysis:开源模型冲到第一梯队
从公开排行表现来看,GLM-5在Artificial Analysis上处于仅次于最顶级闭源模型的区间,并取得“开源第1”的位置。对国产开源模型而言,这一排名的意义在于:它不再只是“能用”,而是进入了可以被严肃对标的竞技位。



2)BrowseComp:Agent检索能力成为亮点
BrowseComp基准侧重于评估Agent在网上搜索与整合信息的能力。GLM-5在该项获得75.9的分数,并拉开与部分模型的差距。横向比较中,GPT-5.2 Pro据称为77.9,而Opus 4.6达到84。从这组数字看,GLM-5与一线差距仍在,但已进入“逼近头部”的范围,尤其在检索/浏览这一类强工具链场景里更具辨识度。



3)工程与工具链相关基准:SWE-bench、Terminal-Bench 2.0、τ²-Bench、MCP-Atlas
在开发者最关心的“改代码、修Bug、跑终端、调工具”场景中,几项基准被频繁引用:



  • SWE-bench:面向真实仓库代码修改与问题修复
  • Terminal-Bench 2.0:终端环境下的Agent能力与执行可靠性
  • τ²-Bench:Agent工具使用能力评测
  • MCP-Atlas:测试模型调用MCP能力的基准

综合表现显示,GLM-5与Claude Opus系模型在多个维度呈现“差临门一脚”的接近状态。对于开源阵营,这通常比单点高分更关键:意味着它不仅会答题,还更可能进入可复用的工程流程。

4)长任务与系统工程:Long-horizon强调多步规划
在长链条复杂任务(Long-horizon)这类评测中,模型需要持续执行多轮规划、拆解、验证与回滚,这更贴近真实软件开发与大型项目交付。GLM-5在该类基准上的表现,被视作其系统工程能力与长程多步规划能力的加分项,也进一步支撑“对标Opus 4.5”的市场判断。



5)上下文与输出:200k上下文窗口 + 128K输出
GLM-5延续了与GLM-4.7一致的200k上下文窗口,并提供128K输出。在代码生成与仓库级改造场景中,大上下文不只是“能塞进更多文件”,也直接影响到跨模块一致性、依赖跟踪与长对话持续性。



6)token消耗体感:更“省token”的工程倾向
除了窗口大小,开发者还会关注单位任务的token消耗与有效产出。GLM-5被反馈在实际使用中呈现“更省token、更精准”的生成风格,这对于长任务、多人协作的持续对话以及成本控制都更友好。尤其对比一些在长上下文下消耗迅速的模型,“省token”往往意味着更高的可持续性。



基准分数提供方向感,但“能不能写出能跑的东西”,仍要回到开发者的真实案例与工具链适配。

在Coding Agent形态上,Claude Code被不少开发者视为通用型Coding Agent产品,而某些模型与特定工具(如Codex与GPT系)的适配更紧密。对国内用户而言,若无法长期使用高门槛方案,“Claude Code + GLM-5”成为一种更容易落地的路线。

同时,为降低接入复杂度,GLM-5提供了一个用于将编码套餐加载到常见编码工具的辅助工具(Coding Tool Helper),支持Claude Code、OpenCode、Crush、Factory Droid等。

# 进入命令行界面,执行如下运行 Coding Tool Helper npx @z_ai/coding-helper

在“全平台内容同步分发”的Chrome扩展需求中,GLM-5能够在较简短的需求描述下,先输出关键设计选项并推动最小MVP落地,包括:

  • 独立页面(非小popup)的插件交互
  • 输入微信公众号链接,抽取标题、封面、正文(保留格式)
  • 右侧富文本编辑与展示
  • 平台复选(小红书、知乎等)
  • 打开目标平台发布页并自动填充内容

该案例中,GLM-5在规划、架构与实现推进上表现稳定;但在“正文抽取不完整、图片获取失败”这类棘手Bug上,多轮修复仍存在障碍,最终由GPT-5.3-codex一次性解决。这也勾勒出其边界:方案设计与工程推进更强,极端Bug定位与精准修复仍可能不如顶级闭源coding模型

在“欢乐斗地主PC模拟器记牌器”的需求中,GLM-5的优势体现在:

  • 主动反问与需求澄清(识别方式、技术路线、功能范围)
  • 提供自动识别/手动点击两套实现方案
  • 在失败后主动引入调试能力,将问题拆为“截图链路”与“OCR识别链路”
  • 最终选择模板匹配路线:对截图做灰度处理、二值化,再与模板做模式匹配

值得注意的是,该识别方案与其他顶级模型给出的路线一致,显示其在工程策略选择上已经具备较高的共识能力与可复用的方法库。

在“将开源工具yt-dlp封装成Skill”的任务中,GLM-5被反馈一轮即可跑通B站下载,并能明确指出下载YouTube需要Cookies等关键约束信息。对于企业级Agent而言,这类“能把依赖条件讲清楚,并让流程可执行”的能力,往往比写出一段看似正确的代码更重要。

在价格对比上,Claude Opus 4.5/4.6的API价格被描述为$5/$25每百万token(输入/输出),而GLM-5约为其七分之一的量级。同时,GLM-5提供的Coding Plan按包月思路对标Claude Max与ChatGPT Pro,并在“价格更低、Token额度更高”的方向上强化性价比。这一策略对国内开发者社区的外溢效应非常直接:门槛降低,尝试的人变多,反馈更密集,迭代也更快。

从GLM-5逼近Claude Opus 4.5的讨论中,一个更值得企业关注的信号是:AI Coding正在从“少数工程师的高阶玩具”变成“组织可规模化配置的生产力”。当模型具备200k上下文窗口、能在SWE-bench与Terminal-Bench 2.0等工程基准上站稳,并能通过MCP-Atlas体现工具调用能力时,它就不再只是生成代码片段,而是开始参与需求拆解、任务编排、调试回溯与知识检索等完整流程。对管理者而言,这会重塑研发协作方式:岗位能力模型需要加入Agent协作、Prompt与代码审查能力;研发过程要建立可追踪的质量门禁(测试、审计、权限控制);同时更要把“模型成本、token效率、工具链适配”纳入交付预算与生产率衡量体系。正如红海云在探索新一代人力资源管理解决方案时所强调的,技术的终极价值在于赋能组织——当AI能力以更低成本普及,企业更需要用制度、流程与人才体系把这种能力稳定沉淀为组织效能。

小讯
上一篇 2026-04-24 07:47
下一篇 2026-04-24 07:45

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/275925.html