前言:为什么会有这篇文章?
最近 OpenClaw 在 AI Agent 圈子里火得一塌糊涂,但对于大多数学生党或科研人员来说,部署时有两个“深坑”:
- 权限受限:实验室服务器或百度 AI Studio、Google Colab 这种云平台,根本不给 或 权限。
- 模型绑定:官方默认配置往往倾向于特定模型,想用性价比极高的国内模型(如百度 ERNIE 5.0 Thinking)却不知道怎么配。
今天,我开源了这个项目:OpenClaw-AnyLLM,核心就是解决两个字——自由。
- 零权限要求:完全在用户目录下运行,不需要任何 。
- 万能模型接入:通过自定义 Provider 逻辑,强行接入 OpenClaw 原生不支持或未预置的任意 LLM API。
- 云端丝滑体验:以百度 AI Studio 为例,配合 ngrok,让云端 Agent 触手可及。
- 平台:百度 AI Studio (或其他 Linux 容器)
- 核心工具:NVM (Node 版本管理器)、OpenClaw、ngrok
1. 曲线救国:非 Root 安装 Node.js
系统没装 Node 且没权限?直接上 NVM。
GPT plus 代充 只需 145
2. 强力注入:接入 ERNIE 5.0 自定义 API
这是本项目最核心的干货。OpenClaw 支持 OpenAI 兼容格式,我们可以手动构造 。
在终端输入以下配置命令:
3. 网关启动与内网穿透
因为云平台是内网环境,我们需要 ngrok 把 OpenClaw 的 18789 端口暴露出来。
终端 A:启动网关
GPT plus 代充 只需 145
终端 B:开启隧道
项目运行起来后,其内部逻辑如下:
GPT plus 代充 只需 145
- 跨域问题:记得在配置中设置 为你的 ngrok 域名,否则 UI 连不上。
- 端口占用:如果 18789 被占用了, 查一下,或者换个端口启动。
- API 验证:百度 AI Studio 的 Lmapi 路径和标准 OpenAI 略有不同,务必检查 。
通过这套方案,你可以把任何支持标准协议的大模型“喂”给 OpenClaw,甚至是在配置极其苛刻的云端环境。
如果你觉得这个项目有用,欢迎去 GitHub 点个 Star 支持一下!
👉 项目地址:https://github.com/Shallowdreamss/OpenClaw-AnyLLM
有任何部署问题,欢迎在评论区留言或者在 GitHub 提 Issue,我们一起交流!
#OpenClaw #ERNIE #大模型 #Agent #AIStudio #部署教程 #开发者


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/237103.html