2026年Claude Opus 4.7 发布了,但你们关注错重点了(附如何使用到Opus 4.7)

Claude Opus 4.7 发布了,但你们关注错重点了(附如何使用到Opus 4.7)Anthropic 昨天发了 Opus 4 7 我刷到的第一条评论是 编码又提升了 第二条 打败 GPT 5 4 了 第三条还是编码 我理解 编码是大家最直接能感受到的东西 但我觉得这次真正值得聊的 不是编码 是视觉 Anthropic 官方对 Opus 4 7 的定位里 专门提到了 high resolution vision 高分辨率视觉 这不是随便说说的

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



Anthropic 昨天发了 Opus 4.7。

我刷到的第一条评论是:”编码又提升了!”

第二条:”打败 GPT-5.4 了!”

第三条还是编码。

我理解,编码是大家最直接能感受到的东西。但我觉得这次真正值得聊的,不是编码——是视觉。

Anthropic 官方对 Opus 4.7 的定位里,专门提到了”high-resolution vision”——高分辨率视觉。

这不是随便说说的。

具体数字:图像处理分辨率提升了 3 倍,最高支持长边 2,576 像素(约 3.75 MP)。

以前你发高清图给 Claude,它会自动压缩,细节丢失,表格里的小字经常读错,截图里的代码经常看不清。现在分辨率上来了,这些问题理论上都能改善。

更高的分辨率直接带动了输出质量的连锁提升:生成界面、制作幻灯片、排版文档,细节精度也全面提升。

多个第三方评测也提到视觉能力有”质的提升”——从”将就能用”变成”可以依赖”。但具体的量化数字,我没有在 Anthropic 官方公告里找到,所以这里就不引用。

这中间的差距,你自己试一下就知道了。

就好像你有个助理,以前让他看文件,细节经常出错,你还得自己复核。现在他能看清楚了,你可以直接把文件扔给他。

这两种关系,完全不一样。

好,编码也说一下,毕竟大家最关心这个。

SWE-bench Verified:Opus 4.7 87.6% ,Opus 4.6 是 80.8% ,Gemini 3.1 Pro 是 80.6%,不过这里的编码能力还是比不上那个危险模型“Mythos”哈哈

这个基准测试的是真实 GitHub bug 的修复能力,87.6% 意味着它能独立解决接近 90% 的真实代码问题

SWE-bench Pro:64.3% 。这个更难,是更接近生产环境的测试。Opus 4.6 是 53.4%,GPT-5.4 是 57.7%,Gemini 3.1 Pro 是 54.2%。Opus 4.7 在这个榜上排第一

CursorBench:70% ,比 Opus 4.6 的 58% 提升了 12 个百分点。

内部编码基准整体提升:13%。生产环境任务解决能力:提升 3 倍

这些数字都很好。但我要说一句可能不受欢迎的话:

SWE-bench 是可以针对性训练的。

这不是说 Anthropic 在作弊,而是说,基准测试的提升和你实际用起来的感受,不一定是 1:1 的关系。真正有意义的数字,是”生产环境任务解决能力提升 3 倍”——这个更接近真实场景。

第一个:/ultrareview 命令

这个我觉得是 Opus 4.7 里最有意思的新东西,但报道最少。

/ultrareview 是 Claude Code 新增的命令。你在代码合并前运行它,它会在云端启动一批审查 Agent 并行扫描你的代码,找 bug。每个发现都会被独立复现和验证,不是随便报一个就算。

Pro 和 Max 用户各有 3 次免费运行。

以前代码审查要么靠自己,要么靠同事,要么靠 CI 跑测试。现在多了一个选项:让一群 AI 在合并前帮你扫一遍。

这个工作流变化,比任何基准测试数字都更直接。

第二个:xhigh 努力级别。

Opus 4.7 引入了新的自适应思考(Adaptive Thinking)机制,在原有的 low/medium/high/max 之间,加了一个 xhigh 级别,位于 high 和 max 之间。

Claude Code 默认就用 xhigh。

这意味着什么?你可以更精细地控制模型的推理深度和响应速度之间的权衡。以前只能选”快一点”或”慢一点”,现在多了一个档位。

第三个:自动化网络安全防护。

这个有点意思。Anthropic 在训练 Opus 4.7 的时候,故意削弱了它的攻击性网络安全能力,同时加入了自动检测机制,会自动阻止高风险的网络安全请求。

它会拒绝帮你做某些事情,即使你问得很委婉。

这是 Anthropic 一贯的风格:安全优先。有人觉得烦,有人觉得这才是负责任的做法。

我不评价,但你用的时候要知道这个限制在。

输入: \(5 / 百万 tokens

输出: \)25 / 百万 tokens

和 Opus 4.6 一模一样。

上下文窗口:100 万 tokens。最大输出:128k tokens。这些也没变。

能力大幅提升,价格纹丝不动。

这个决定背后是什么逻辑,我猜了两种可能:一是训练成本在下降,他们有空间维持价格;二是在打市场份额,不让开发者跑去用 GPT-5.4。

不管哪种,结果对用户来说都一样:同样的钱,现在能买到更强的模型。

说了这么多,怎么用?分三种情况:

普通用户(Claude.ai 网页版)

直接去 claude.ai,登录账号,在模型选择里找 Claude Opus 4.7。

免费用户目前只能用 Claude Haiku,要用 Opus 4.7 需要订阅 Claude Pro( \(20/月)或 Claude Max(\)100/月)

如果你不知道怎么升级的话,可以前往👇

https://gptclaude.top/

开发者(API)

模型 ID:claude-opus-4-7-(具体以 Anthropic 官方文档为准)

调用方式和之前一样,直接替换 model 参数即可。支持 Amazon Bedrock、Google Cloud Vertex AI、Microsoft Foundry 三个云平台,不想直接调 Anthropic API 的可以走这些渠道。

Claude Code 用户

如果你在用 Claude Code(VS Code 或 JetBrains 插件),更新到最新版本后,Opus 4.7 会自动成为默认模型,推理级别默认 xhigh。

不需要额外配置,更新就行。

如果你只需要用到Claude Code或codex的话,可以看一下往期文章👇

教你在国内用一个套餐同时体验到Claude Code+Codex两大AI编程助手


我觉得 Opus 4.7 最值得期待的,不是它在基准测试上又赢了谁。

是视觉分辨率提升 3 倍之后,那些以前做不了的工作流,现在可以做了。

比如直接把设计稿截图扔给它,让它写前端代码。比如把 PDF 报告截图发给它,让它帮你提炼数据。比如把手写笔记拍照,让它整理成文档。

这些以前都是”能用但不稳”,现在可能真的稳了。

试试看吧。


最后感谢大家能够看到文章的最后,如果你觉得这篇文章对你有启发或者帮助,不妨点个关注,你的支持将是我最大的动力,我们下次见!

小讯
上一篇 2026-04-17 18:09
下一篇 2026-04-17 18:07

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/268466.html