去年夏天,我偶然在GitHub上发现了OpenClaw这个项目。当时我正在寻找一个能够帮我自动化处理日常重复性工作的工具,比如整理下载文件夹、自动回复邮件、生成周报草稿等。试过几个方案后,OpenClaw的本地化特性最吸引我——所有操作都在我的MacBook上完成,不用担心数据泄露。
GLM-4.7-Flash是我最近测试过的响应速度最快的本地模型之一。相比完整版,它的推理速度提升了近40%,特别适合需要快速响应的自动化场景。这个组合让我实现了:
- 每天早晨自动整理前一天的邮件和文档
- 根据会议录音自动生成待办事项
- 监控特定网页变化并发送通知
2.1 Homebrew与Node.js安装
我的Mac运行的是macOS Ventura 13.4,首先需要确保开发环境就绪。Homebrew是Mac上最方便的包管理工具,如果还没安装,执行:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
安装完成后,建议将Homebrew添加到PATH环境变量。在zsh终端中:
echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zshrc source ~/.zshrc
接下来安装Node.js(LTS版本):
brew install node@18
这里有个小坑:新安装的Node可能不会立即生效。我通常会执行以下命令确保环境变量正确:
brew unlink node && brew link --overwrite node@18
验证安装:
node -v # 应显示v18.x.x npm -v # 应显示9.x.x
2.2 ollama模型服务部署
GLM-4.7-Flash可以通过ollama快速部署。首先安装ollama:
brew install ollama
启动ollama服务:
ollama serve
新开一个终端窗口,拉取GLM-4.7-Flash模型:
ollama pull glm-4.7-flash
这里有个性能优化点:首次运行时建议添加--verbose参数查看下载进度:
ollama pull glm-4.7-flash --verbose
模型下载完成后,可以测试一下基础功能:
ollama run glm-4.7-flash "你好"
3.1 全局安装OpenClaw
通过npm安装最新版OpenClaw:
npm install -g openclaw@latest
安装完成后验证版本:
openclaw --version
如果遇到权限问题(这在Mac上很常见),可以尝试:
sudo npm install -g openclaw@latest --unsafe-perm=true
3.2 初始化配置向导
运行配置向导:
openclaw onboard
在交互式向导中,我的推荐配置是:
- 选择
Advanced模式 - Provider选择
Custom - 模型地址填写
http://localhost:11434(ollama默认端口) - 模型名称填写
glm-4.7-flash - 暂时跳过渠道配置(后续可以单独添加)
配置完成后,会在用户目录生成配置文件~/.openclaw/openclaw.json。我们可以手动调整模型参数:
{ "models": { "providers": { "ollama": { "baseUrl": "http://localhost:11434", "api": "openai-completions", "models": [ { "id": "glm-4.7-flash", "name": "GLM-4.7-Flash", "contextWindow": 32768 } ] } } } }
4.1 启动网关服务
启动OpenClaw网关(指定端口避免冲突):
openclaw gateway --port 18789
建议使用tmux或screen保持服务后台运行:
tmux new -s openclaw openclaw gateway --port 18789 # 按Ctrl+B然后按D退出tmux会话
4.2 访问Web控制台
浏览器打开http://localhost:18789,应该能看到OpenClaw的Web界面。首次使用时,建议尝试几个基础命令:
- "列出当前目录文件"
- "今天的日期是什么?"
- "用Markdown格式写一个待办事项列表"
如果模型响应正常,说明基础环境已经配置成功。
5.1 模型连接失败
如果遇到“Model not responding”错误,按以下步骤检查:
- 确认ollama服务正在运行:
lsof -i :11434 - 测试模型API是否可达:
curl http://localhost:11434/api/generate -d ‘{ “model”: “glm-4.7-flash”, “prompt”: “你好” }’ - 检查OpenClaw配置文件中的
baseUrl是否正确
5.2 权限问题处理
Mac系统的权限管理比较严格,常见问题包括:
- 文件访问被拒绝:在系统设置 > 隐私与安全性 > 完全磁盘访问中,添加终端或iTerm
- 自动化操作被拦截:首次执行鼠标/键盘操作时,系统会弹出权限请求,务必点击允许
5.3 性能优化建议
- 如果发现响应慢,可以尝试降低模型参数:
{ “models”: {
"providers": { "ollama": { "parameters": { "temperature": 0.7, "max_tokens": 512 } } }
} }
nohup: nohup openclaw gateway –port 18789 > openclaw.log 2>&1 & 6.1 添加飞书/钉钉通知
如果想让OpenClaw通过企业IM发送通知,可以配置飞书通道:
- 安装飞书插件:
openclaw plugins install @m1heng-clawd/feishu - 在飞书开放平台创建自建应用,获取App ID和App Secret
- 修改配置文件:
{ “channels”: {
"feishu": { "enabled": true, "appId": "your_app_id", "appSecret": "your_app_secret" }
} }
6.2 自定义技能扩展
OpenClaw支持通过ClawHub安装额外技能。例如安装文件处理技能:
npm install -g clawhub@latest clawhub install file-processor
安装后可以在Web控制台使用“整理下载文件夹”等命令。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/248601.html