昨天(4月16日),Anthropic发布了Claude Opus 4.7,OpenAI同天更新了Codex。
点开科技媒体,清一色"编程能力炸了"、"视觉三倍升级"、"白嫖式升级"。边忙着争论benchmark,顺便把"OpenAI正面硬刚Anthropic"这种剧情讲了一遍。

Claude Opus 4.7综合基准对比
但我们发现有一件真正值得关注的事,没几个人注意到:同一天,AI的账单逻辑被悄悄改了两次。
一个2月份还能用50万token搞定的任务,4月份同样的活,可能要烧500万token才能完成。
大部分用户意想不到的AI涨价正在到来。
Tokenizer悄悄换了一把尺子
有个细节藏在Anthropic的官方指南里,我估计99%的读者都跳过了。
原文是这样的:
"Opus 4.7 uses an updated tokenizer that improves how the model processes text. The tradeoff is that the same input can map to more tokens—roughly 1.0–1.35× depending on the content type."
说人话就是,他们换了一把新尺子,同一段提示词,过去量出来100个token,现在可能是130个。
Token相信用过AI的人经常都会听说它,它就是AI理解提示词的最小单位。
你问AI一句话,AI其实不是直接读文字的,它先把文字切成一块一块、叫"token"的单位,再去处理。Tokenizer就是计量Token的工具。
问题来了。
定价没动,还是5美元/百万Token输入、25美元/百万Token输出,但你的token计算凭空增加了,账单自然就要变大。
假设一家公司每月在Opus 4.6上花100万美元API费。切到4.7之后,同样的工作量,账单可能会悄悄爬到135万,每月多出来几十万美元的开销。
这个tokenizer变化大部分媒体都没有注意到,因为大家都没往下算账。
这就是AI时代不知不觉的暗税。

Anthropic官方给出的不同effort级别下token消耗与性能关系
AI的工作单位变了
如果说tokenizer是10-35%的温柔刀,下面这件事才是真正的大杀器。
OpenAI在Codex发布会上做了一个演示,让Codex自己写一款赛车游戏。不同的赛车手、8张地图、道具系统,都要。一个初始提示丢进去,Codex自己当设计师、程序员、测试员,玩完一遍游戏来验证效果。
整个过程烧了700万token。
对比一下。你用GPT-4问一个问题,一次大概消耗500到2000个token。
Codex一次任务就是过去单次调用的三千多倍。

OpenAI在4月16日Codex更新中展示的应用内浏览器界面
这不是OpenAI一家在做,Anthropic的合作伙伴Vercel在测试Opus 4.7时也报告说:
"Claude Opus 4.7 autonomously built a complete Rust text-to-speech engine from scratch—neural model, SIMD kernels, browser demo—then fed its own output through a speech recognizer to verify it matched the Python reference. Months of senior engineering, delivered autonomously."
翻译过来就是,Opus 4.7自己写了一套完整的Rust文字转语音引擎,从神经网络模型到SIMD底层优化,再到浏览器演示,全部自主完成。然后它把自己的输出喂给语音识别器去验证对不对。
这也不是某家AI公司的问题,而是AI发展的大趋势。 今年1月,王煜全在前哨科技特训营就和大家预告过这个趋势,没想到4月就已经发生。

1月前哨科技特训营PPT报告
Bolt、Factory Droids、Genspark、Warp,几乎每个测试过的企业都在说同一件事:现在的AI能连续干几个小时、甚至一整天,中间不用人管。
Anthropic自己在博客里有句话很关键:"engineers shift from working 1:1 with agents to managing them in parallel"。工程师从"和一个AI对话",变成了"同时管着好几个AI"。
AI的工作单位,已经从"一次回答"悄悄升级成了"一段工作"。
账单暴涨,对人的要求就更高了
把两件事放在一起算一笔账。
你2月份在做一个自动生成产品文档的活,今天升级到4.7,顺便启用新的Agent模式。
Tokenizer换了,同样工作量的token数先乘1.3。Agent要自主跑多步流程,token再乘8,不知不觉这成本就涨上去了10倍。
这才是Claude 4.7和Codex同一天发布的真实剧情。
当然,到这里如果只讨论"账单涨了多少",其实还没摸到最重要的那层。
AI厂商的商业模式,正在从"卖回答"转成"卖工时"。
过去那种AI是工具属性的。你问一句它答一句,按次计价,每次调用的边界由你来画。
现在这批AI更像是劳动力。你下一个目标,它自主工作几个小时,按token消耗计价。工作边界由AI自己决定。
三个影响,管理AI的高阶手段
这事儿带来的影响有三个层面。
一是预算方案直接失效。 过去企业AI预算怎么算?要么按席位数乘月费,要么按API调用次数。现在呢,同一个用户、同一个调用,消耗量可以差100倍。
CFO拿到账单才知道自己花了多少钱。OpenAI悄悄上线的那个"Codex按token付费席位",还有Anthropic刚推出的"Task Budgets",都是在试图给这些大公司一点掌控感。
二是工程师的角色边界要重新设定。 以前工程师是写代码的人,现在是管AI工作流的人。你得不停判断:这个活值不值得让AI烧100万token去干?该用中等算力还是满血狂奔?什么时候该打断它?
这种决策过去根本不存在,现在每天要做几十次。
三是能力差距会被继续拉大。 同样的AI工具,会用的人和不会用的人,产出能差10倍。不是AI变强了你就自动受益,你得学会怎么"管AI工时"这件事。
过去你会写prompt就够了。现在还得会管token预算、会挑effort级别、会拆任务粒度、会算AI工时的投入产出比。
这其实是一套类似项目管理的新技能,但99%的AI教程还卡在"怎么写提示词"这个老话题上。
不过"管AI"其实分两种玩法。
低阶玩法是管token预算、挑effort级别、算账单ROI…这些让你不亏。
高阶玩法是另一件事:把你(或者你公司里最值钱的那个专家)装进AI里。
公司里最资深的顾问、最懂客户的销售、最会踩风向的投资人,他们的经验、判断、方法论,如果能全部沉淀成一个AI版本的"他",整个团队随时调用,这才是AI作为劳动力真正的规模化价值。
不是替一个人干活,而是把一个人复制成一千个。
这件事怎么做?本周日前哨AI小课讲。
AI会越来越像员工,但真正把AI用到极致的玩法,是让它成为你和你团队的"知识延伸"。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/270010.html