原文测试实际基于 ASUS Ascent GX10 完成,该机型为 NVIDIA DGX Spark 的 OEM 版本,文中统一记作 DGX Spark。

“本地模型是不花钱的。”
如果你听到这句话,那多半是骗你的。因为本地模型要能顺畅跑起来,前提是你已经投入成本购置了能够承载它的硬件设备。而 NVIDIA DGX Spark,无疑是本地运行大模型的理想平台之一。
选择在 DGX Spark 上进行 Docker 部署,是出于安全与便捷的考虑。将应用及其依赖封装在容器中,可以最大程度地避免 npm 等包管理器可能带来的文件系统意外修改。正如官方安全提示所述,对于 OpenClaw 这类被授予了高系统权限的智能体软件,严格的环境隔离是首要前提。

第一步是从 GitHub 获取 OpenClaw 的源代码。

进入项目目录,执行 Docker 部署脚本。
GPT plus 代充 只需 145

脚本执行失败,错误信息显示 Docker 守护进程套接字连接被拒绝,原因是当前用户没有足够的 Docker 权限。
为了解决权限问题,需要将当前用户添加到 用户组中。

执行完成后,需要重新登录系统以使组权限生效。登录后,可以通过以下命令验证用户组信息,确认 组已加入。
GPT plus 代充 只需 145

重启 Docker 服务,并检查是否已无需 即可执行 Docker 命令。


权限问题解决后,再次尝试部署。
GPT plus 代充 只需 145

这次遇到了新的问题:。这通常是 Docker 在拉取基础镜像时,由于网络连接至默认的 Docker Hub 仓库速度过慢或失败导致的。
为了提升镜像拉取速度,需要配置国内的 Docker 镜像加速源。编辑 Docker 守护进程的配置文件 。
保存文件后,重启 Docker 服务使配置生效。
GPT plus 代充 只需 145

配置好镜像加速后,第三次执行部署脚本,这次构建过程顺利开始了。


构建完成后,会进入 OpenClaw 的交互式初始化配置向导。首先是一个重要的安全警告,阅读后输入 继续。

选择 快速启动模式,网关端口保持默认的 ,绑定地址为 。

选择模型提供商。这里我们先选择 进行初步配置,后续会替换为本地模型。

输入 Z.AI 的 API 密钥,并选择模型版本,例如 。

接下来配置通信渠道(Channel),这里可以选择 Telegram、WhatsApp、Discord 等。为了简化初次设置,选择 ,稍后再配置。


同样,网页搜索(Web Search)功能和技能(Skills)配置也暂时跳过。


在 Hooks(钩子)配置页面,启用所有推荐的钩子功能,如 、 等,以增强自动化能力。

配置完成后,向导提示健康检查失败,网关连接异常。

同时,终端也显示 Docker 网关容器启动失败,处于不断重启的状态。
GPT plus 代充 只需 145

首先检查 Docker 容器状态,确认网关容器确实在重启循环中。

问题的根源在于 OpenClaw 网关的跨域安全策略。需要修改其配置文件,允许控制 UI 从特定的来源进行访问。编辑 文件,在 配置段中添加 。
GPT plus 代充 只需 145

保存配置后,再次检查容器状态,发现已经成功启动并运行。

进入正在运行的 Docker 容器内部。
GPT plus 代充 只需 145
在容器内获取 Dashboard 的访问链接(包含令牌)。

将输出的 URL(如 )在浏览器中打开。初次访问时,可能会因为 HTTP 协议的安全限制而提示需要设备身份验证。

根据提示,需要进一步修改配置文件,允许不安全的身份验证方式(仅限本地测试环境)。在 的 部分添加 。
GPT plus 代充 只需 145

修改并保存后,刷新浏览器页面,即可成功连接到 OpenClaw 网关 Dashboard。

通过 Dashboard 的聊天界面,可以开始与 AI 助手进行对话。系统会引导你完成初始的身份设定。


为了让 OpenClaw 可以通过 接收指令,我们需要配置一个 机器人。
访问 开放平台 (https://q..com),使用 号登录并完成开发者实名认证。在“管理”页面中,需要绑定一个超级管理员账号。

在平台内点击“创建机器人”,为其命名(例如 )。

创建后,进入该机器人的“开发管理”页面。这里需要获取两个关键信息:
- AppID:机器人的唯一标识。
- AppSecret:机器人的密钥,需要点击“生成”按钮获取,并妥善保存。


回到 DGX Spark 的终端,进入 OpenClaw 的 Docker 容器,安装官方提供的 机器人插件。

安装完成后,添加 渠道,命令格式为 。
GPT plus 代充 只需 145

配置完成后,访问 开放平台的机器人管理页面,找到你创建的机器人,点击“扫码聊天”。

使用手机 扫描弹出的二维码,即可将机器人添加为好友。现在,你可以直接在 中向这个机器人发送消息,指令会由 OpenClaw 处理并回复。

最初我们配置了云端 GLM 模型,现在将其替换为本地运行的模型,真正实现“本地化”。
这里以 模型为例。使用 Ollama 拉取并运行该模型。

模型拉取完成后,可以查看其运行状态。
GPT plus 代充 只需 145

默认情况下,Ollama 服务只监听本地回环地址。为了让 Docker 容器内的 OpenClaw 能够访问宿主机上的 Ollama,需要修改 Ollama 服务配置,使其在所有网络接口上监听。
编辑 Ollama 的服务配置文件 ,在 部分添加环境变量:
保存后,重新加载服务配置并重启 Ollama。
GPT plus 代充 只需 145
重启后,测试在容器网络内是否能访问到 Ollama 服务( 是 Docker 容器的默认网关,指向宿主机)。

进入 OpenClaw 容器,重新运行配置向导。
GPT plus 代充 只需 145
在配置过程中,做出以下关键选择:
- Model/auth provider: 选择
- API Base URL: 填入
- API Key: 如果 Ollama 未设置鉴权,可留空或填入
- Endpoint compatibility: 选择
- Model ID: 填入你所使用的模型名称,如

配置完成后,向导会提示更新成功。

为了使新的模型配置生效,需要重启 OpenClaw 网关进程。在容器内找到网关进程并结束它,系统会自动重启。

网关重启后,获取新的控制面板链接并打开。
GPT plus 代充 只需 145

在浏览器中打开 Dashboard,输入令牌并连接。现在,无论是通过网页聊天界面还是 机器人,所有的请求都将由你本地 DGX Spark 上的 Nemotron 模型进行处理。

在聊天界面中尝试一个需要联网搜索并分析的任务,例如查询油价并绘制趋势图。你可以看到模型调用工具、执行指令的全过程。



此时,通过 DGX 的系统监控可以看到,GPU 利用率已经提升至 90% 左右,表明本地模型正在全力工作。

最后,通过 机器人进行一段复杂的对话测试,例如请求介绍一部电视剧的剧情。模型会根据其知识进行生成回答,整个过程完全在本地完成。

至此,一个部署在强大 计算平台 上、支持多通道交互、完全由本地大模型驱动的 AI 助手就搭建完成了。整个过程涵盖了从环境准备、部署排错、服务配置到最终接入本地 开源模型 的完整链条,希望这份在云栈社区的实践记录能为有类似需求的朋友提供清晰的参考。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/238268.html