在开始安装OpenClaw之前,我们需要确保Windows系统满足基本运行条件。不同于macOS的Unix环境,Windows需要特别注意权限管理和路径处理。
我的工作机是一台搭载Windows 11的Surface笔记本,配置为16GB内存和i7处理器。实际测试发现,即使没有独立显卡,CPU版本的GLM-4.7-Flash也能正常运行基础功能。以下是关键准备步骤:
首先以管理员身份打开PowerShell(这是后续所有操作的入口),执行系统环境检查:
# 检查PowerShell版本(需5.1+) $PSVersionTable.PSVersion # 检查Node.js是否安装(需v18+) node -v
如果尚未安装Node.js,建议通过官方安装包而非Windows应用商店获取。我最初使用商店版时遇到了路径权限问题,改用下载的.msi安装包后解决。安装时务必勾选"自动安装必要工具"选项,这会同时安装Python和C++编译环境。
Windows下的安装方式与类Unix系统有所不同。经过多次测试,我总结出最稳定的安装路径:
# 清除可能的旧版本 npm uninstall -g openclaw # 设置镜像源(国内用户建议) npm config set registry https://registry.npmmirror.com # 全局安装核心包 npm install -g openclaw@latest --scripts-prepend-node-path
安装完成后会遇到第一个关键点:环境变量配置。OpenClaw需要将安装目录加入系统PATH,但npm的全局安装位置可能因Node.js版本而变化。通过以下命令定位实际安装路径:
npm root -g
将输出的路径(如C:Users你的用户名AppDataRoaming pm ode_modules)添加到系统环境变量。我建议直接在用户变量中添加,避免系统级修改带来的权限问题。
假设已在本地通过ollama部署好GLM-4.7-Flash(默认服务地址为http://localhost:11434),现在需要将其接入OpenClaw。配置文件位于C:Users你的用户名.openclawopenclaw.json,我们需要编辑models部分:
{ "models": { "providers": { "ollama-glm": { "baseUrl": "http://localhost:11434", "api": "openai-completions", "models": [ { "id": "glm-4.7-flash", "name": "GLM-4.7-Flash Local", "contextWindow": 32768 } ] } } } }
这里有个细节需要注意:ollama的API端点与标准OpenAI略有不同。经过抓包分析,我发现需要额外添加/v1路径才能正确访问。因此实际配置中应将baseUrl设为http://localhost:11434/v1。
执行初始化命令时会遇到Windows特有的防火墙提示:
openclaw onboard
在配置向导中:
- 选择
Advanced模式 - Provider选择
Skip for now(因为我们已手动配置) - 渠道接入建议先跳过
- 基础技能选择
Yes
启动网关服务时,建议使用以下命令避免端口冲突:
openclaw gateway --port 18789
如果遇到端口占用,可通过netstat -ano查找占用进程。我遇到过系统保留端口导致的问题,最终通过修改注册表HKEY_LOCAL_MACHINESYSTEMCurrentControlSetServicesHTTP中的Start值为4解决了冲突。
根据实际部署经验,我整理了Windows平台特有的问题及解决方案:
问题1:安装后openclaw命令未识别
- 检查npm全局安装路径是否在PATH中
- 重启PowerShell终端
- 尝试全路径执行:
& “\((npm root -g)openclawbinopenclaw" --version
问题2:网关启动后无法访问管理界面
- 检查Windows防火墙是否放行18789端口
- 尝试
curl http://localhost:18789测试本地连通性 - 查看日志:
Get-Content "\)env:USERPROFILE.openclawlogsgateway.log” -Wait
问题3:模型调用超时
- 确认ollama服务正在运行:
curl http://localhost:11434/api/tags - 检查OpenClaw配置中的baseUrl是否包含
/v1路径 - 在PowerShell中测试模型连通性:
$body = @{
model = "glm-4.7-flash" prompt = "测试"
} | ConvertTo-Json Invoke-RestMethod -Uri “http://localhost:11434/v1/completions"; -Method Post -Body $body -ContentType ”application/json“
成功启动后,可以通过两种方式验证功能完整性:
方法1:Web控制台测试 访问http://localhost:18789,在交互界面输入:
请用GLM-4.7-Flash总结OpenClaw的核心功能
观察是否返回合理结果。
方法2:命令行直接调用
openclaw exec ”列出当前目录下的Markdown文件“
我在日常使用中建立了几个实用别名,放在$PROFILE文件中:
function oc-start { openclaw gateway start } function oc-stop { openclaw gateway stop } function oc-test { openclaw exec ”测试GLM模型连接“ }
这种配置方式让OpenClaw在Windows下的使用体验接近Linux环境,大大提高了工作效率。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/248666.html