Claude今天上了Routines,主打7*24小时干活,结果我看到超多吐槽Opus 4.6太笨,token烧得比瀑布还快,还要上实名认证。所以我把缓解降智和token烧太快的方法都试了一遍,一次性说清楚。先硬刚降智,既然Anthropic会动态调整模型的思考预算降智,那我们直接上个固定档位!PS:把下面这段发给CodeX配置就好…修改本地Claude Code的~/.claude/settings.json配置文件{"effortLevel": "high","env": {"CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING": "1","MAX_THINKING_TOKENS": "31999","CLAUDE_CODE_DISABLE_1M_CONTEXT": "1","CLAUDE_CODE_AUTO_COMPACT_WINDOW": ""}}…1.effortLevel就是告诉模型用更强的推理能力。也可以设置成max,但这样简单任务也会思考几十钟。2.CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING是把自适应思考停了,缓解降智。3.MAX_THINKING_TOKENS是给模型的思考预算上限,32k够用了,也可以拉满128k。4.后面的1M和200k是把1M上下文停了,每200k压缩上下文,这样超长上下文就不会影响性能。还有一个可以考虑开的,"CLAUDE_CODE_MAKE_NO_MISTAKES": "1",会调到谨慎模式,避开低级错误。还有一个巨坑人的设置,之前设置了CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,是为了不把使用数据发给Anthropic,只要设置了,订阅用户的一小时缓存(上下文有效时间)就会被砍到五分钟,大亏,要知道只要缓存还有效,对话的上下文就基本不耗额度。还有一个使用习惯可以省token,只要对话里的任务没换,或者距离上条消息没有过一小时,就不开新对话。很多人都统计过,每新开一次对话,就消耗4到6万个Token,拿去加载系统提示,项目记忆和各种插件。那怎么知道现在用的CC是真被降智了?这有几个量化指标。第一个,是读改比正常是大量读取上下文再修改,比例在6.6比1。降智的是看一眼就改,读改比降到2比1。第二个,是思考深度在Plan模式下,正常思考过程的字符数大概在2200个token,降智后会跌到600。第三个,是中断频率CC在没完成任务前,就提前问是否继续。如果这个频率明显增加,说明它傻了。我们甚至可以去 aistupidlevel点info 上看模型是不是被大范围降智了,不同模型在不同时间段有不同程度降智。Opus 4.6通常在晚上7点和11点,会有性能下降。没招了,要不奥特曼把Claude蒸馏了,出一个GPT全能王吧,至少GPT Pro我用起来是真没负担。
可算有解决Claude降智和偷Token的神配置了
可算有解决Claude降智和偷Token的神配置了Claude 今天上了 Routines 主打 7 24 小时干活 结果我看到超多吐槽 Opus 4 6 太笨 token 烧得比瀑布还快 还要上实名认证 所以我把缓解降智和 token 烧太快的方法都试了一遍 一次性说清楚 先硬刚降智 既然 Anthropic 会动态调整模型的思考预算降智 那我们直接上个固定档位 PS 把下面这段发给 CodeX 配置就好 修改本地 Claude Code 的
大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。
MindIE部署DeepSeek-V3.2-Exp-W8A8后,Function Call不生效?手把手教你修改chat_template和源码
上一篇
2026-04-17 10:29
10天9.5k Star!开源Agent Harness项目,一条命令拥有工具、记忆、安全与多Agent协作
下一篇
2026-04-17 10:27
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/266573.html