在 Mac 上从零开始安装 OpenClaw 的完整指南
对于初次接触 OpenClaw 的用户,以下将提供一套保姆级的安装流程。OpenClaw 是一个开源的 AI Agent 框架,能够在本地部署并集成大模型能力,实现自动化任务处理[ref_2]。我们将从环境准备、核心组件安装到最终验证,分步详解整个过程。
1. 环境准备与依赖安装
(1)安装 Homebrew
Homebrew 是 macOS 的包管理器,用于快速安装所需工具。打开终端(Terminal)执行以下命令:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
(2)安装 Git 和 Node.js
- Git 用于拉取代码,Node.js 是运行 OpenClaw 的基础环境:
GPT plus 代充 只需 145brew install git node
- 建议使用 Node Version Manager(NVM)管理 Node.js 版本[ref_3]:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash nvm install 18 # 安装 Node.js v18(OpenClaw 兼容版本)
(3)安装 Docker(可选但推荐)
Docker 可简化依赖管理,避免环境冲突[ref_1]:
GPT plus 代充 只需 145brew install --cask docker
安装后需从应用程序文件夹启动 Docker Desktop,并保持运行状态。
2. 安装 OpenClaw 核心服务
(1)通过 npm 直接安装
这是最快捷的安装方式[ref_3][ref_4]:
npm install -g @openclaw/cli # 全局安装 OpenClaw CLI
安装完成后,初始化项目:
GPT plus 代充 只需 145openclaw init my-claw-project # 创建项目目录 cd my-claw-project
(2)启动服务
执行以下命令启动核心服务:
openclaw start
正常启动后,终端将显示 Web UI 访问地址(通常为 http://localhost:3000)。
3. 配置大模型集成
OpenClaw 支持多种大模型,以下是两种典型配置方案:
方案一:使用 Ollama 本地模型(推荐新手)
Ollama 可在本地运行轻量级大模型[ref_3]:
GPT plus 代充 只需 145brew install ollama ollama pull qwen:1.8b # 拉取千问 1.8B 模型(资源占用低)
在 OpenClaw 的 Web UI 界面中配置模型端点:
# 在模型配置页面填写 model_endpoint: "http://localhost:11434/v1" model_name: "qwen:1.8b"
方案二:接入云端 API
若希望使用更强大的模型,可配置 MiniMax 或 DeepSeek 等国产大模型[ref_1][ref_2]:
GPT plus 代充 只需 145# 在 OpenClaw 的 config.yaml 中添加 models: - name: "minimax" api_key: "your_minimax_api_key" base_url: "https://api.minimax.chat/v1"
4. 验证安装结果
(1)检查服务状态
在项目目录下运行:
openclaw status # 查看各组件运行状态
(2)访问 Web UI
浏览器打开 http://localhost:3000,应看到 OpenClaw 管理界面。首次使用需获取 Token:
GPT plus 代充 只需 145openclaw token generate # 生成访问令牌[ref_4]
(3)基础功能测试
在 Web UI 的对话界面中输入测试问题(如“介绍一下你自己”),确认能获得模型回复。
5. 常见问题与解决方案
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
npm install 失败 |
网络超时或权限不足 | 使用国内镜像:npm config set registry https://registry.npmmirror.com |
| Ollama 模型加载失败 | 内存不足 | 换用更小模型:ollama pull qwen:1.8b[ref_3] |
| Web UI 无法访问 | 端口被占用 | 更改端口:openclaw start --port 3001 |
| 飞书集成报错 | 权限配置不全 | 检查飞书应用的“事件订阅”和“消息与卡片”权限[ref_5] |
6. 进阶集成示例(飞书机器人)
如需将 OpenClaw 连接到飞书实现手机端操控,可参考以下配置要点:
// 在飞书开发者后台创建应用后,配置 channel.js module.exports = }
关键步骤包括[ref_1][ref_5]:
- 在飞书开放平台创建“企业自建应用”
- 启用“机器人”功能并配置权限
- 设置事件订阅 URL(格式:
https://your-domain.com/webhook/feishu) - 在 OpenClaw 中配置飞书 Channel 参数
安装流程总结
整个安装过程可简化为三个主要阶段:环境准备(Homebrew、Node.js、Docker)→ 核心安装(npm 安装 OpenClaw)→ 模型配置(Ollama 本地模型或云端 API)。对于完全新手,建议先使用 Ollama+Qwen 组合验证基础功能,再逐步探索飞书集成等进阶功能[ref_4]。
通过上述步骤,即使是零基础用户也应在 30 分钟内完成 OpenClaw 的本地部署并开始体验 AI Agent 的基本功能。如在任何环节遇到问题,可重点关注终端错误信息,并参照对应参考文档的排障章节进行处理[ref_6]。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/235824.html