在 Mac 上从零开始安装 OpenClaw 的完整指南
对于初次接触 OpenClaw 的用户,以下将提供一套保姆级的安装流程。OpenClaw 是一个开源的 AI Agent 框架,能够在本地部署并集成大模型能力,实现自动化任务处理[ref_2]。我们将从环境准备、核心组件安装到最终验证,分步详解整个过程。
1. 环境准备与依赖安装
(1)安装 Homebrew
Homebrew 是 macOS 的包管理器,用于快速安装所需工具。打开终端(Terminal)执行以下命令:
/bin/bash <em>-</em>c "$(curl <em>-</em>fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
GPT plus 代充 只需 145
(2)安装 Git 和 Node.js
- Git 用于拉取代码,Node.js 是运行 OpenClaw 的基础环境:
讯享网brew install git node - 建议使用 Node Version Manager(NVM)管理 Node.js 版本[ref_3]:
curl <em>-</em>o<em>-</em> https://raw.githubusercontent.com/nvm<em>-</em>sh/nvm/v0.39.0/install.sh | bash nvm install 18 # <em>安装</em> Node.js v18(<em>OpenClaw</em> 兼容版本) (3)安装 Docker(可选但推荐)
Docker 可简化依赖管理,避免环境冲突[ref_1]:
讯享网brew install <em>-</em><em>-</em>cask docker 安装后需从应用程序文件夹启动 Docker Desktop,并保持运行状态。
2. 安装 OpenClaw 核心服务
(1)通过 npm 直接安装
这是最快捷的安装方式[ref_3][ref_4]:
npm install <em>-</em>g @<em>openclaw</em>/cli # 全局<em>安装</em> <em>OpenClaw</em> CLI 安装完成后,初始化项目:
讯享网<em>openclaw</em> init my<em>-</em>claw<em>-</em>project # 创建项目目录 cd my<em>-</em>claw<em>-</em>project (2)启动服务
执行以下命令启动核心服务:
<em>openclaw</em> start 正常启动后,终端将显示 Web UI 访问地址(通常为 http://localhost:3000)。
3. 配置大模型集成
OpenClaw 支持多种大模型,以下是两种典型配置方案:
方案一:使用 Ollama 本地模型(推荐新手)
Ollama 可在本地运行轻量级大模型[ref_3]:
讯享网brew install ollama ollama pull qwen:1.8b # 拉取千问 1.8B 模型(资源占用低) 在 OpenClaw 的 Web UI 界面中配置模型端点:
# 在模型配置页面填写 model_endpoint: "http://localhost:11434/v1" model_name: "qwen:1.8b" 方案二:接入云端 API
若希望使用更强大的模型,可配置 MiniMax 或 DeepSeek 等国产大模型[ref_1][ref_2]:
讯享网# 在 <em>OpenClaw</em> 的 config.yaml 中添加 models: <em>-</em> name: "minimax" api_key: "your_minimax_api_key" base_url: "https://api.minimax.chat/v1" 4. 验证安装结果
(1)检查服务状态
在项目目录下运行:
<em>openclaw</em> status # 查看各组件运行状态 (2)访问 Web UI
浏览器打开 http://localhost:3000,应看到 OpenClaw 管理界面。首次使用需获取 Token:
讯享网<em>openclaw</em> token generate # 生成访问令牌[ref_4] (3)基础功能测试
在 Web UI 的对话界面中输入测试问题(如“介绍一下你自己”),确认能获得模型回复。
5. 常见问题与解决方案
| 问题现象 | 可能原因 | 解决方案 | |---------|---------|---------| | npm install 失败 | 网络超时或权限不足 | 使用国内镜像:npm config set registry https://registry.npmmirror.com | | Ollama 模型加载失败 | 内存不足 | 换用更小模型:ollama pull qwen:1.8b[ref_3] | | Web UI 无法访问 | 端口被占用 | 更改端口:<em>openclaw</em> start <em>-</em><em>-</em>port 3001 | | 飞书集成报错 | 权限配置不全 | 检查飞书应用的“事件订阅”和“消息与卡片”权限[ref_5] |
6. 进阶集成示例(飞书机器人)
如需将 OpenClaw 连接到飞书实现手机端操控,可参考以下配置要点:
// 在飞书开发者后台创建应用后,配置 channel.js module.exports = } 关键步骤包括[ref_1][ref_5]: - 在飞书开放平台创建“企业自建应用” - 启用“机器人”功能并配置权限 - 设置事件订阅 URL(格式:https://your<em>-</em>dom<em>ai</em>n.com/webhook/feishu) - 在 OpenClaw 中配置飞书 Channel 参数
安装流程总结
整个安装过程可简化为三个主要阶段:环境准备(Homebrew、Node.js、Docker)→ 核心安装(npm 安装 OpenClaw)→ 模型配置(Ollama 本地模型或云端 API)。对于完全新手,建议先使用 Ollama+Qwen 组合验证基础功能,再逐步探索飞书集成等进阶功能[ref_4]。
通过上述步骤,即使是零基础用户也应在 30 分钟内完成 OpenClaw 的本地部署并开始体验 AI Agent 的基本功能。如在任何环节遇到问题,可重点关注终端错误信息,并参照对应参考文档的排障章节进行处理[ref_6]。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/213977.html