小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置 ...

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置 ...td style height 30px b 关键词 b LLaMA OpenClaw Ollama Token qwen3 5 baseUrl Qwen cloud 本地模型 launch td 本文默认环境 macOS Apple Silicon Intel 均可 目标

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 关键词:LLaMA, OpenClaw, Ollama, Token, qwen3.5, baseUrl, Qwen, cloud, 本地模型, launch 

本文默认环境:macOS(Apple Silicon / Intel 均可)。

目标:用 Ollama 跑本地模型,再让 OpenClaw 通过 Ollama 调模型(流式输出 + 工具调用一起工作)。

本文示例模型:qwen3.5:2b(以你 Ollama 里实际能搜到/拉到的名字为准)。

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

真是服了:昨晚为了跑任务,硬生生给我“干”了几千万 token。你说养个小龙虾还能破产,这合理吗?

大家好,我是寒山。

今天这篇就干一件事:一分钱不花,把 OpenClaw 接到本地模型上。装好以后你会发现,“能聊天”只是起点,“能干活”才是爽点。


  • Ollama:本地模型运行时(负责下载/加载/推理),默认监听 http://127.0.0.1:11434
  • OpenClaw:你的个人 AI 助手(网关、工具调用、插件、渠道接入),把“聊天”升级成“行动”

一个最直观的理解:

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

最关键的技术细节(也是踩坑高发点):

  • OpenClaw 优先走 Ollama 原生接口:/api/chat,更稳地支持流式输出 + 工具调用一起工作
  • 不要把 OpenAI 兼容地址 http://127.0.0.1:11434/v1 当成 baseUrl 填给 OpenClaw。

如果你用的是 Ollama 的 macOS 桌面版,打开后一般会看到聊天窗口/模型列表(不同版本 UI 细节可能略有差异,但逻辑一致):

  1. 在模型列表里找到 qwen3.5:2b(或同类命名,按你的列表为准)
  2. 选中它,随便说一句:你好
  3. 它会开始自动下载模型,进度跑完就能直接聊
小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置
  • 你显卡/内存够:优先上本地(隐私、稳定、Token 自由)
  • 你显卡不行:先用云端顶上去(很多云端模型会标注 :cloud 或 “cloud” 标签)

一般在 Ollama 的设置里会有类似 Manage/管理 的入口,能看到云端模型的免费额度和用量;有些会周期性刷新(以界面展示为准)。

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

如果你更习惯命令行,直接:

ollama pull qwen3.5:2bollama list

ollama launch openclaw

它会把一堆“新手容易漏掉的步骤”串起来(安装、选择模型、生成配置、启动网关/TUI 等)。这里直接选你刚才在 Ollama 里用的 qwen3.5:2b;如果你想先用云端模型试跑,就选带 :cloud 的那个。

如果你想显式指定模型(例:先用云模型跑通,再切本地):

ollama launch openclaw –model kimi-k2.5:cloud
小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

装完确认一下:

openclaw –version

如果你用 ollama launch openclaw,它通常已经帮你做完了大部分配置;但建议还是走一遍 OpenClaw 官方推荐的 onboarding,让流程更完整、更不依赖“自动化黑盒”。

openclaw onboard
小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

选择 Ollama 作为 provider,然后按你的目标选择模式:

  • Local only:只用本地 Ollama(隐私优先)
  • Cloud + Local:本地 + 云模型混用(如果你还想用 Ollama cloud 或 Web Search)
小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

你会在向导/配置里看到类似 baseUrl 的字段。这里是最常见的坑:

  • ✅ 正确:http://127.0.0.1:11434(或 http://localhost:11434)
  • ❌ 错误:http://127.0.0.1:11434/v1

如下图:

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

如果你选择了“云 + 本地”,向导里会让你确认接下来用哪些能力/模型:

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

然后选具体的模型:本地已装的 + 云端可用的都会出现在列表里。

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

最后向导可能会问你“用哪个 App/客户端来控制龙虾”。这一步今天先跳过:先用终端 + 后台管理页把链路跑通,等确定稳定后再接飞书/网页等渠道。

小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

# 1) 确认 Ollama & 模型ollama –versionollama pull qwen3.5:2bollama list# 2) 一键启动 OpenClawollama launch openclaw# 3) OpenClaw 常用命令openclaw onboardopenclaw config fileopenclaw gateway startopenclaw gateway stopopenclaw gateway restartopenclaw logs –follow

这一段是最能让读者一下理解 OpenClaw 为啥叫 Agent。

你可以把 OpenClaw 接到飞书(或其他渠道),然后让它去调用工具做事。比如我当时演示的是:

  1. 问一句:你是哪个模型?(先确认它真在用你刚选的本地/云端模型)
  2. 再来一句:打开淘宝
小龙虾养成日记:“虾”路相逢OpenClaw 安装和 Ollama 本地模型配置

如果你的 OpenClaw 开了对应的工具(比如浏览器自动化/系统控制类工具),它就会把“打开淘宝”这句话,变成一条真实的行动。

提醒:这类“能动手”的工具权限很高,建议你只在自己可控的机器、可控的目录/应用范围里开,先从低风险动作演示起步。


OpenClaw 是“能动手”的 Agent:只要你开了执行命令、读写文件、联网搜索等能力,它就可能把误解变成真实操作。

建议你从这两条开始:

  • 先在低风险目录试跑:别一上来就给它你的工作仓库/电脑根目录
  • 少开权限、逐步放开:插件/工具按需启用

到这一步,你已经把链路彻底打通了。问题来了:Token 自由以后,你还想让小龙虾帮你干点啥?

今天的分享就到这里,更多 AI 内容,我们下期再讲!


 本文出处: https://www.toutiao.com/article/ 

 
           
    
             
声明:文章版权归原作者所有 部分文章转自互联网 如有侵权请联系 [邮箱地址] 删除




小讯
上一篇 2026-04-27 11:41
下一篇 2026-04-27 11:39

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/280035.html