💡 别被 API 掏空钱包!今天我们要用 16G 统一内存的 Mac,零成本在本地跑通 OpenClaw 的 AI Agent(接入 Ollama 本地模型)!这也是一期本地化实战教程。
大家好,我是龙力坤。
上期我们讲了 OpenClaw 的安装和基本配置, 模型我们用的都是云端的 API,要么 Claude,要么 GPT,都是按量收费的。 但很多朋友在问:有没有办法用本地模型?不花钱,纯本地跑? 答案是可以的。今天就来演示怎么让 OpenClaw 接入本地的 Ollama 模型。
整个过程非常简单,主要分 3 步:
- 第一步:在本地安装并测试 Ollama 大模型
- 第二步:修改 OpenClaw 配置文件
- 第三步:重启服务,并发送飞书消息进行验证
不过在开始实操之前,我要先给大家打个预防针。
本地小模型的能力和 Claude 这种顶级模型差距还是很大的。 你不能指望它去调用工具、写代码、完成非常复杂的任务。 鉴于我的电脑是一台 16G 统一内存的 Mac 芯片, 所以今天我们的目标只把它连接跑通。能正常对话就算成功。
顺便提一下,如果你的机器装的是英伟达显卡,除了 Ollama 之外,还可以考虑用 vLLM。 配置稍微复杂一点,但 vLLM 对英伟达 GPU 的优化更好,推理速度会快不少。 不过我的显卡不是英伟达的,所以今天我们就还是用 Ollama 来进行演示。
现在我的 OpenClaw 已经部署在 Docker 里了。 如果你还没装 OpenClaw,建议先去看上期视频。
然后我们安装 Ollama。 首先到 Ollama 的官方下载安装,使用命令行和安装程序都可以。
装好之后,我们先跑一个模型试一试。这里选一个小模型,千问 3.5 的 0.8B 版本。 在命令行里运行:
它会自动下载模型,然后进入对话。 输入一个测试,有回复说明没问题。然后按 退出模型。
模型准备好了,接下来配置 OpenClaw。 打开 OpenClaw 的官方文档,找到 Ollama 的部分,其实配置很简单。
因为 OpenClaw 对 Ollama 有一个自动发现的机制。 你只要设置一个 环境变量就行,这个值可以是随意的。
通过 设置环境变量:
或者使用 openclaw cli 的命令设置。
然后打开 OpenClaw 的配置文件: 这里的配置文件在你的用户主目录下面,有一个点开头的隐藏文件夹叫 ,里面有个 ,这就是主配置文件。
然后在 中添加模型,类似这样:
检查没有红色格式错误,保存。
如果你的 Ollama 和 OpenClaw 都跑在本机, 并且没有配置 , 那设好环境变量之后,OpenClaw 会自动去 找 Ollama, 连 providers 都不用手动配,非常省事。
但是因为我的 OpenClaw 是运行在 Docker 容器中的,所以我还需要手动配置一下。 复制官网的配置到 中,修改一下。
这里主要注意 :我们要把它改成 Docker 的地址,也就是 。 然后是 字段:如果你写的是 ,后面就不带 ;如果你写的是 ,后面就要带 。
如果你怕 JSON 的格式改错,你可以使用引导程序。 选择 Custom Provider,输入 ,输入 api key 和模型别名即可。
配好之后,保存文件,然后我们重启一下 OpenClaw 的容器,让配置生效。
现在打开浏览器,访问 OpenClaw 的管理面板。发一条消息试试。 可以看到,经过漫长的等待,模型回复了。 虽然 0.8B 的小模型回答速度和质量都一般,但连接是成功了的。
然后我们再测试一下飞书的接入。 打开手机的飞书 APP,发送一条消息。等一下,这里也收到回复了。
这里要特别提醒一下: 如果你也要测试,最好不要用 0.8B 这种极小模型,有条件的话,尽量换成 9B 或者 27B 的模型。 因为发过来的消息可能比较复杂,也就是上下文比较长,小模型往往处理不了这么长的上下文结构,很容易直接卡死或者报错。
到这一步,我们就算是用本地的 Ollama 成功跑通 OpenClaw 了。 如果你之后升级了机器,比如 32G 或者 64G 的显卡,可以直接换更大的模型,只需要 Ollama 先拉取模型,然后修改配置文件里的模型名称就行,其他配置完全不用动。
好了,这就是本期教程的全部内容。 用本地模型跑 OpenClaw,虽然能力有限,但至少可以零成本体验一下 Agent 的玩法。 如果觉得对你有帮助,欢迎点赞、评论加关注。我们下期再会!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/215513.html