2026年Claude Code 接入本地大模型Qwen3.6 进行代码开发(vLLM 部署 + 环境配置)

Claude Code 接入本地大模型Qwen3.6 进行代码开发(vLLM 部署 + 环境配置)Claude Code 是 Anthropic 推出的智能编码命令行工具 默认使用 Claude 系列模型 但我们可以通过指定自定义 API 端点 将其连接到本地部署的 Qwen3 6 模型 实现 本地模型 强大编码助手 的组合 本文将带你完成 1 1 安装 Docker 请确保你的系统已安装 Docker 并支持

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



Claude Code 是 Anthropic 推出的智能编码命令行工具,默认使用 Claude 系列模型。但我们可以通过指定自定义 API 端点,将其连接到本地部署的 Qwen3.6 模型,实现“本地模型 + 强大编码助手”的组合。

本文将带你完成:


1.1 安装 Docker

请确保你的系统已安装 Docker 并支持 GPU(NVIDIA Container Toolkit)。

1.2 创建 docker-compose.yml

在合适的位置创建项目目录,例如 ~/vllm-qwen,并在其中新建 docker-compose.yml 文件,内容如下:

 version: '3.8' services: vllm-qwen: image: vllm/vllm-openai:cu130-nightly container_name: vllm-qwen36-35B-A3B-FP8 restart: unless-stopped ipc: host ports: - "8000:8000" volumes: - /app/vllm/data/models:/root/.cache/modelscope # 模型缓存目录,可按需修改 environment: - VLLM_USE_MODELSCOPE=true deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu] command: - --model - "Qwen/Qwen3.6-35B-A3B-FP8" - --tensor-parallel-size - "1" - --gpu-memory-utilization - "0.8" - --served-model-name - "Qwen3.6-35B-A3B-FP8" - --enable-prefix-caching - --enable-auto-tool-choice - --default-chat-template-kwargs - '{"enable_thinking": false}' - --tool-call-parser - "qwen3_coder" - --max-model-len - "" - --max-num-batched-tokens - "8192" - --enable-chunked-prefill - --max-num-seqs - "32" - --kv-cache-dtype - "fp8" 

1.3 启动模型服务

在 docker-compose.yml 所在目录执行:

 docker compose up -d 

服务启动后会监听本机 8000 端口。

1.4 验证部署

使用 curl 检查模型列表:

 curl http://127.0.0.1:8000/v1/models 

正常返回应包含 Qwen3.6-35B-A3B-FP8


Claude Code 支持多种安装方式,可根据你的系统选择。

2.1 通过官方脚本安装(推荐)

macOS / Linux / WSL(Linux 子系统)
打开终端,执行:

 curl -fsSL https://claude.ai/install.sh | bash 

安装完成后重启终端或执行 source ~/.bashrc(或 ~/.zshrc)。

Windows PowerShell(管理员模式运行)

 irm https://claude.ai/install.ps1 | iex 

Windows CMD(命令提示符)

 curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd 

2.2 通过 npm 安装(适用于已安装 Node.js 的用户)

 npm install -g @anthropic-ai/claude-code 

安装后,执行一次初始化(非必须,但建议):

 claude install 

3.1 设置环境变量

将 Claude Code 指向本地 vLLM 服务。当前服务运行在 127.0.0.1:8000,如果其他机器使用可以ifconfig查看服务器的ip地址,认证 Token 可随意设置(vLLM 默认不校验,但需要占位符)。

Linux / macOS / WSL (bash/zsh)

 export ANTHROPIC_BASE_URL="http://127.0.0.1:8000" export ANTHROPIC_AUTH_TOKEN="your_key" 

若想永久生效,可将这两行追加到 ~/.bashrc 或 ~/.zshrc

Windows PowerShell

 $env:ANTHROPIC_BASE_URL="http://127.0.0.1:8000" $env:ANTHROPIC_AUTH_TOKEN="your_key" 

Windows CMD

 set ANTHROPIC_BASE_URL=http://127.0.0.1:8000 set ANTHROPIC_AUTH_TOKEN=your_key 

3.2 指定模型启动 Claude Code

环境变量设置完毕后,使用 --model 参数指定模型名称(必须与 vLLM 启动参数 --served-model-name 一致):

 claude --model Qwen3.6-35B-A3B-FP8 

首次运行会提示登录,由于我们使用的是自定义端点,可以随意输入邮箱或直接回车跳过。

启动成功后,你将看到类似如下的交互界面:

 Claude Code v2.x.x Type /help for commands, /exit to quit. > 你好,请帮我写一个 Python 冒泡排序 

小讯
上一篇 2026-04-19 19:48
下一篇 2026-04-19 19:46

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/271578.html