上周 DeepSeek v4 预览版一上线,HN 直接炸到 1886 分,我的群也跟着炸了——「v4 是不是真干翻 GPT-5 了?」「Claude 4.6 还有优势吗?」「千问旗舰到底什么水平?」
每次有新模型出来,我都得重新跑一遍评测,团队要决定接哪个模型、预算怎么分配。这次趁 DeepSeek v4 刚出,我把手头项目常用的 7 个模型全部拉出来跑了一轮,测了编码、推理、长文本、多模态四个维度。数据都是我自己跑的,不是从官方 blog 抄的 benchmark,场景偏实际开发,跟你们日常用法更接近。
结论先放这儿:2026 年没有「一个模型打天下」的事,不同场景差异巨大,盲选最贵的反而亏钱。
先说清楚我怎么测的,免得有人说不严谨:
所有模型统一用 API 调用,temperature 设 0,每个 case 跑 3 遍取最好成绩。调用方式统一走 OpenAI 兼容协议,base_url 用的 ofox.ai 聚合接口,这样不用给每家单独写鉴权逻辑,改个 model 参数就能切。
直接上硬菜。综合得分满分 100,按加权算的(编码 30%、推理 25%、长文本 20%、多模态 15%、性价比 10%):
几个让我意外的点:
- DeepSeek v4 编码能力直接拉到 93 分,跟 Claude Opus 4.6 基本持平,预览版就这水平,正式版有点期待
- Gemini 3 Pro 的长文本和多模态是真的猛,95 分和 93 分都是全场最高,处理超长上下文场景选它没毛病
- Qwen 3 旗舰延迟最低,290ms 首 token,比 GPT-5 快了将近 100ms,对实时交互场景很友好
- GLM 5 综合分不算顶尖,但后面会说它的性价比优势
Claude Opus 4.6:综合最强,但贵
编码测试里,Opus 4.6 在复杂重构任务上的表现让我印象最深。给它一段 300 行的 legacy 代码让它重构,能正确拆分模块,还会主动补上类型注解和边界检查。其他模型多少会漏一两个 edge case。
槽点:价格是真的贵。输入 $15/M tokens,输出 $75/M tokens,跑完我那 70 道编码题花了差不多 40 块人民币。日常开发高频调用,钱包扛不住。
GPT-5:推理最强,多模态也能打
推理维度 GPT-5 拿了 93 分全场最高,特别是多步数学推理和逻辑链条长的题目,其他模型容易在第三四步开始飘,GPT-5 稳得一批。多模态 91 分也是第二名。
槽点:长文本处理明显是短板,88 分在前三里垫底。超过 8 万字的文档,偶尔会出现「遗忘」前面章节内容的情况。
DeepSeek v4(预览版):性价比炸裂的搅局者
这轮测试最大的惊喜。预览版就能跟前两名贴身肉搏,编码 93 分甚至最高。延迟只有 350ms,比 Claude 和 GPT-5 都快。
槽点:多模态 82 分是前三里最低的,图表理解偶尔会出错。预览版偶尔有不稳定的情况,我跑到第 40 道编码题的时候遇到过一次超时。正式版应该会好。
Gemini 3 Pro:长文本之王
如果你的业务是处理超长文档——法律合同、技术文档、代码仓库级别的上下文——Gemini 3 Pro 目前没有对手。10 万字文档 QA 准确率 95 分,跨章节信息抽取也几乎没漏。多模态 93 分同样全场最高。
Qwen 3 旗舰:延迟最低,够用就行
阿里最新旗舰模型性能确实在部分场景比肩 Gemini 3 Pro 了。290ms 首 token 延迟全场最快,对于需要实时响应的聊天机器人、客服系统来说是个硬优势。综合 86.5 分,日常 80% 的任务都能胜任。
GLM 5 和 MiniMax 2.5
这俩放一起说。GLM 5 综合 83.7 分,MiniMax 2.5 是 79.3 分,单看分数不算亮眼,但看完下面的价格表你就明白它们的价值了。
这才是大多数开发者最关心的。我按「完成 1000 次标准编码任务」来算总成本(每次平均 2000 输入 + 1000 输出 tokens):
测完这个数据我人傻了。DeepSeek v4 综合得分 89.8,成本 12 块钱;Claude Opus 4.6 综合 92.1,成本 614 块。多花 50 倍的钱,只多了 2.3 分。
当然不能这么简单算,那 2.3 分的差距在关键场景(复杂重构、长链推理)体感差异还是明显的。但对大多数中小团队来说,DeepSeek v4 + Qwen 3 的组合,覆盖 90% 的日常需求绰绰有余。
按核心需求对号入座:
我自己团队现在的方案:
- 核心业务(代码生成、复杂推理):DeepSeek v4 为主,遇到搞不定的 case 自动 fallback 到 Claude Opus 4.6
- 文档处理管线:Gemini 3 Pro
- 用户端实时聊天:Qwen 3 旗舰
- 内部工具、非关键任务:GLM 5
这套组合下来,月均 API 支出从之前全用 GPT-5 的 3000 多块降到了 800 块左右,效果反而更好了——每个场景都用了最合适的模型。
跑评测这一周踩了不少坑,挑几个有价值的说:
坑 1:DeepSeek v4 预览版的 streaming 偶尔断流
大概跑到第 200 次调用的时候遇到了 3 次 streaming 中途断开,没有报错,就是 stream 突然停了。加了重试逻辑后没再复现,但正式版之前建议生产环境慎用。
坑 2:Gemini 3 Pro 的 function calling 格式跟其他家不一样
这个坑浪费了我大半天。Gemini 的 tool 定义格式和 OpenAI 协议有微妙差异,直接用 OpenAI SDK 调会报参数错误。后来我统一走 ofox.ai 的聚合接口就没这个问题了——ofox.ai 是一个 AI 模型聚合平台,兼容 OpenAI/Anthropic/Gemini 三大协议,一个 API Key 调用 50+ 模型,不用操心各家的鉴权和格式差异。
坑 3:GLM 5 对英文 prompt 的理解不如中文
同样的编码题,中文 prompt 比英文 prompt 通过率高了 8 个百分点。如果你用 GLM 5,建议 prompt 写中文。
2026 年大模型格局跟去年最大的变化:价格战打完了,差异化竞争开始了。不再是「谁分高用谁」,而是「什么场景用什么模型」。
几点建议:
- 别只看综合排名,拿你自己的真实业务 case 去测
- 多模型组合使用,用路由策略分发不同任务
- DeepSeek v4 正式版值得重点关注,预览版已经这个水平了
- 预算有限的团队,DeepSeek v4 + Qwen 3 + GLM 5 的组合能覆盖绝大多数场景
以上数据基于 2026 年 7 月的模型版本,各家迭代很快,建议每季度重新跑一轮。有问题评论区聊。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/278719.html