2026年腾讯混元 Hy3 上手简评:坐上牌桌,未来可期

腾讯混元 Hy3 上手简评:坐上牌桌,未来可期今天 腾讯发布了姚顺雨负责大模型业务后的首个模型 混元 Hy3 初步上手体验 Hy3 的体感性能与 MiniMax M2 5 相当 但与 Kimi K2 6 或 GLM 5 1 相比 仍存在一定差距 考虑到其 295B 总参数 21B 激活参数的 MoE 架构 这一表现基本符合预期 然而 若将其与混元自家的前代模型 Hy2 对比 进步可谓是飞跃性的 换言之

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



今天,腾讯发布了姚顺雨负责大模型业务后的首个模型,混元 Hy3。

初步上手体验,Hy3 的体感性能与 MiniMax M2.5 相当,但与 Kimi K2.6 或 GLM 5.1 相比,仍存在一定差距。

考虑到其 295B 总参数、21B 激活参数的 MoE 架构,这一表现基本符合预期。

然而,若将其与混元自家的前代模型 Hy2 对比,进步可谓是飞跃性的。换言之,腾讯混元完成了从“无法上桌”到“能坐上牌桌”的关键一跃。这对于团队本身而言,是一次划时代的进步。

对内而言,这意味着元宝等产品终于有了更可靠的自研模型底座,战略意义重大。

从公开的评测成绩来看,Hy3 的目标似乎是精准对标并追平主流国产模型的上一个小版本(如 Kimi K2.5、GLM-5)。可以说,这一代模型的核心任务是完成追赶第一梯队的阶段性目标,而真正的对决,将在下一个版本上演。

Hy3 的评测成绩精准卡位,追平友商的上一代旗舰。这是一种务实的追赶策略,真正的对决将在下一个版本上演。大模型竞赛是一场马拉松,而非百米冲刺。

在当前国产大模型你追我赶的激烈竞争中,一时的先发优势并非牢不可破的护城河,后发者同样有机会迎头赶上,小米的 MiMo 就是一个例子。

这次发布的 295B(激活21B)MoE 模型,在当前业界算是中等体量。

传闻中 DeepSeek V4 的参数规模可能达到 1.6T,如果属实,则说明在参数扩展(Scale)这条路上还有巨大的空间。只要技术路线走对了,让数据飞轮高效地运转起来,模型能力就能进入提升的快车道。

这或许也是姚顺雨从 OpenAI 加盟腾讯后,为混元带来的最核心的价值之一。因此,混元完全有机会在后续版本中继续扩大模型规模,实现弯道超车。

MoE 架构的输出速度确实很快,这也反映出行业的技术路线正在趋同。Hy3 的一个亮点是其推理强度分为三档:“no_think”、“low”和“high”,这让开发者可以根据不同任务场景,灵活控制模型的推理成本与深度(Reasoning effort)。

目前在 OpenRouter 上已经可以免费调用 Hy3 的 API 进行测试,速度表现不错。根据一些第三方测试,其吞吐量可以跑到 150+ tokens/s,这样的性能用来跑 Agent 任务应该会有不错的体验。

不过,官方 API 采取了阶梯计费模式。如果能买到专为开发者设计的 Coding Plan,性价比尚可;但如果使用按量计费的 Token Plan,成本其实并不算低。可以预见,未来按调用次数计费的模式会越来越少,且用且珍惜吧。

今年的行业主线无疑是 Agent。Hy3 同样将代码和智能体作为核心主攻方向,并针对 Agent 所需的长上下文理解、工具调用等能力做了重点强化。

事实上,像腾讯这样的大厂,内部业务条线对大模型的需求是海量且多样化的。只要能打造出一个足够“可用”的模型,就能极大地支撑内部业务(如游戏开发、智能助手、文档处理、AI 知识库等),同时也能从真实场景中采集到宝贵的数据,反哺模型迭代。

值得赞赏的是,混元这次坚持了开源路线,不仅开放了模型权重,还支持了主流推理框架,并提供了微调和量化工具。这无疑是在积极构建开发者生态。

眼下的时机也很好。Coding Agent 和“龙虾”已经点燃了市场对 Token 消耗的需求,只要有可用且性价比高的模型出现,开发者们都非常愿意去尝试和接入。

总而言之,Hy3 是一个非常好的开始。这次取得的成绩,相信会给腾讯内部带来更多信心。期待混元团队的下一个版本。

小讯
上一篇 2026-05-01 07:50
下一篇 2026-05-01 07:48

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/283615.html