OpenClaw 的 AI 助理(无论是 Claude 还是 GPT)都有一个有限的"上下文窗口"——也就是它在单次对话中能同时看到的文字量。Claude Sonnet 的上下文窗口约为 20 万个 Token,Claude Opus 为 20 万,GPT-4o 为 12.8 万。听起来很大,但实际使用中会比你想象的更快填满。
但 OpenClaw 的每次对话不只包含你发送的消息。SOUL.md 个性文件(约1000-3000 Token)、Skills 技能描述、系统提示词、助理历史回复、工具调用记录——这些都会占用上下文。当你在处理大型任务时,可能几十轮对话之后上下文就满了。
OpenClaw 内置 指令,专门用于在不丢失核心信息的前提下压缩上下文。它的原理是:让 AI 对当前对话历史做一次"摘要压缩",把冗长的原始内容替换为简洁的摘要,从而释放大量 Token 空间,让对话可以继续进行。
除了最基本的 ,还有两种带参数的高级用法,适合不同场景:
在处理超长任务时,合理安排 /compact 的时机可以大幅提升任务成功率:
📋 长任务 /compact 使用时机清单
想知道当前上下文用了多少?发送 可以查看实时状态:
每次 API 请求,Claude 不仅处理你发送的新消息,还要"读取"整个历史上下文。上下文越长,每次请求的 Token 消耗越高。通过 /compact 保持上下文简洁,能显著降低 API 费用:
当你同时使用 /compact 压缩上下文和 /think off 降低推理深度时,Token 节省效果可以叠加,特别适合执行重复性的自动化任务:
/compact 操作本质上是一次 Claude API 调用,需要将大量 Token 发送到 Anthropic 服务器并接收摘要结果。如果网络不稳定,压缩请求可能超时失败,让你白等一分钟之后看到一个错误提示。特别是在上下文已经接近满的情况下,这个请求传输的数据量很大。
OpenClaw 重度用户对5款主流VPN进行了为期一个月的实测,评估标准包括:Claude API 调用延迟、任务完成率、连接稳定性和性价比。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/231127.html