部署 Claude Code(由 Anthropic 提供),并连接自托管的大语言模型(如 Qwen、Llama 系列等),完全绕过 Anthropic 官方 API,实现离线/内网安全开发辅助。
- 前言
- 🔧 一、安装 Claude Code CLI
- ⚙️ 二、全局配置文件设置
- 💻 三、VS Code 插件集成
- ⚠️ 四、常见问题与解决方案
- ✅ 五、总结与建议
📖 官方文档:code.claude.com/docs
上篇文章 《性能干翻235B,单卡私有化部署OpenClaw》 提到了如何用 llama.cpp 部署本地模型服务,本篇以此作为大模型API 配置。
GPT plus 代充 只需 145
✅ 验证安装:
Claude Code 通过环境变量识别后端模型服务。必须确保以下三点:
- 指向 OpenAI 兼容的 API 路径(如 )
- :若服务无需认证,可设为任意值(如 )
- :必须与本地 LLM 服务注册的模型 ID 严格一致
GPT plus 代充 只需 145
ℹ️ 参数说明:
- :本地 LLM 服务的 OpenAI 兼容 API 地址
- :模型名称(需与服务端 或实际加载模型名一致)
- :当上下文使用达 80% 时自动压缩历史
- 更多配置项见:官方设置文档
在项目目录中运行:

💡 注意:Claude Code for VS Code 插件 不读取 ,必须在此处单独配置!
进入 Settings → Extensions → Claude Code → Edit in settings.json,添加如下配置:
GPT plus 代充 只需 145
⚠️ 安全提示:
- 允许 AI 自动修改文件,仅限可信内网环境启用
- 生产环境建议保留权限确认弹窗,防止意外覆盖
- 侧边栏面板:点击左侧 Claude 图标

- 编辑器内嵌:右键代码 → “Ask Claude”

✅ 方案 1:启用自动压缩(推荐)
已在配置中设置:
GPT plus 代充 只需 145
上下文容量在80% 处自动压缩触发,但对超大项目可能仍不足。
✅ 方案 2:手动清理上下文
在聊天窗口输入:
强制丢弃非核心历史消息,保留当前代码状态。
✅ 方案 3:扩大模型上下文窗口
启动本地 LLM 服务时显式指定更大上下文,例如:
GPT plus 代充 只需 145
✅ 方案 4:减少输入规模
- 在项目根目录创建 文件,排除无关目录:
- 避免在巨型单体仓库中全量分析
🌐 扩展支持:除 llama.cpp 外,也可接入 Ollama、vLLM、Text Generation WebUI 等 OpenAI 兼容后端。
📌 最后提醒:本方案完全绕过 Anthropic 云端服务,所有数据保留在本地,符合高安全合规要求。
如需进一步自动化部署脚本或 Docker 化方案,可参考社区开源项目。
✅ 现在,你已具备在私有环境中安全、高效使用 Claude Code 的全部能力!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/238156.html