参考引用内容,未提及OpenClaw Tokens用完后的解决办法。不过在彻底解决openclaw的tokens焦虑的引用中,有关于openclaw.json的配置内容,推测可通过合理的配置来缓解Tokens消耗问题。
例如在openclaw.json中可以对agents和models等部分进行配置:
{ "agents": { "defaults": { "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "model": { "primary": "ollama/glm-4.7-flash:latest" }, "subagents": { "maxConcurrent": 8 } } }, "models": { "providers": { "ollama": { "api": "openai-completions", "apiKey": "ollama-local", "baseUrl": "http://127.0.0.1:11434/v1", "models": [ { "contextWindow": , "cost": { "cacheRead": 0, "cacheWrite": 0, "input": 0, "output": 0 }, "id": "glm-4.7-flash:latest", "input": [ "text" ], "maxTokens": 16384, "name": "glm-4.7-flash:latest", "reasoning": false } ] } } } }
通过上述配置,或许能优化Tokens的使用情况,但具体能否解决Tokens用完的问题还需根据实际情况判断。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/232129.html