OpenClaw 腾讯云 + 火山方舟(Volcengine Ark)完整安装与扩展教程

OpenClaw 腾讯云 + 火山方舟(Volcengine Ark)完整安装与扩展教程适用场景 你准备在 腾讯云 CVM Ubuntu LTS 上部署一套长期在线的 OpenClaw 主模型优先使用 火山方舟 方舟引擎 API 并在安装完成后继续扩展 国内外渠道 插件 skills 与 MCP 类工具能力 本文尽量把 官方手册能确认的稳定做法 和 社区里已验证但仍在快速演进的做法 分开写

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



适用场景:你准备在 腾讯云 CVM(Ubuntu LTS) 上部署一套长期在线的 OpenClaw,主模型优先使用 火山方舟 / 方舟引擎 API ,并在安装完成后继续扩展 国内外渠道、插件、skills 与 MCP 类工具能力

本文尽量把"官方手册能确认的稳定做法"和"社区里已验证但仍在快速演进的做法"分开写,避免你踩到版本变化的坑。


  • [1. 先把 5 个概念分清:模型、渠道、插件、Skills、MCP](#1. 先把 5 个概念分清:模型、渠道、插件、Skills、MCP)
  • [2. 本教程推荐的部署架构](#2. 本教程推荐的部署架构)
  • [3. 服务器与云资源准备(腾讯云)](#3. 服务器与云资源准备(腾讯云))
  • [4. Ubuntu 初始化与非 root 运行用户](#4. Ubuntu 初始化与非 root 运行用户)
  • [5. 安装 OpenClaw(官方推荐路径)](#5. 安装 OpenClaw(官方推荐路径))
  • [6. 接入方舟引擎 API:推荐两种方式](#6. 接入方舟引擎 API:推荐两种方式)
  • [7. 安装完成后的目录、配置文件与日志位置](#7. 安装完成后的目录、配置文件与日志位置)
  • [8. 推荐的 基础模板](#8. 推荐的 openclaw.json 基础模板)
  • [9. 国内外渠道/平台接入方法](#9. 国内外渠道/平台接入方法)
  • [10. Skills 的安装、检查与更新(Linux)](#10. Skills 的安装、检查与更新(Linux))
  • [11. MCP 工具怎么接:当前稳定做法与实验性做法](#11. MCP 工具怎么接:当前稳定做法与实验性做法)
  • [12. 常见问题与避坑建议](#12. 常见问题与避坑建议)
  • [13. 一套建议你直接照抄的落地顺序](#13. 一套建议你直接照抄的落地顺序)
  • 参考资料

这是很多人第一次部署 OpenClaw 时最容易混淆的地方。

1.1 模型提供商(Model Provider)

这是 OpenClaw 背后实际调用的大模型来源,比如 OpenAI、Anthropic、Z.AI(GLM)、Moonshot、MiniMax、Qianfan、Volcano Engine(火山方舟 / Doubao)等。OpenClaw 官方文档明确把它们归类在 Model Providers ,模型引用格式通常是 。[1](#1)[2](#2)

1.2 聊天渠道(Channel)

这是 OpenClaw 跟你交互的"入口",比如 Telegram、WhatsApp、Slack、Discord、Signal、Feishu、LINE、Zalo 等。官方把这些放在 Channels 文档里。[3](#3)

1.3 插件(Plugin)

插件用于给 OpenClaw 增加额外功能、命令、工具和 Gateway RPC。很多渠道本身就是以插件方式提供的,比如 Feishu、LINE、Matrix、Mattermost 等。[4](#4)

1.4 Skills

Skills 更像能力包/任务包。Linux 上没有 macOS 那种 Skills 图形界面,官方建议通过 ClawHub 或把 skill 目录直接放进工作区来安装与管理。[5](#5)[6](#6)

1.5 MCP

MCP(Model Context Protocol)本质上是外部工具/服务能力的接入协议。但到你现在要部署的这一代 OpenClaw ,稳定文档里还没有一份非常成熟的一等 全局配置手册;官方 ACP 文档只明确写了 bridge mode 不支持 per-session ,需要在 gateway 或 agent 层配置 。与此同时,社区里最近仍有关于 在 中"不被 schema 识别"的 issue / discussion。也就是说:MCP 能力存在,但在当前稳定版里仍更适合按"实验性 / bridge / provider-specific"思路接入,而不是把它当作已经完全定型的顶层配置。 [7](#7)[8](#8)[9](#9)

结论:

  • 方舟 / GLM / Kimi / MiniMax 这类是"模型提供商";
  • 微信 / 飞书 / Telegram / LINE / 小艺 这类主要是"渠道 / 插件 / 平台接入";
  • ClawHub 装的是 skills
  • MCP 目前要单独谨慎处理

我推荐你用下面这套架构:

  • 腾讯云 CVM:Ubuntu 22.04 LTS 或 24.04 LTS;
  • 专属普通用户 :例如 ,不要直接用 root 跑网关;
  • OpenClaw Gateway :通过官方安装脚本安装,并以 Linux 方式常驻;
  • 模型 :优先走 Volcano Engine / 火山方舟官方 provider ;如果你要接自己在方舟里开的 OpenAI 兼容接入点,再用 Custom Provider
  • 访问 Dashboard :优先使用 loopback + token + SSH 隧道
  • 外部渠道:按需接 Telegram / Feishu / 微信 / LINE / 小艺等;
  • Skills:通过 ClawHub 安装;
  • MCP:当前按"实验性增强"处理,不把它放到第一天安装的关键路径里。

OpenClaw 官方对 Linux/VPS 的建议也基本是这条思路:使用 Ubuntu LTS、Node 22+、、Linux 上用 ,并且最好一台主机 / 一个 OS 用户对应一个可信边界。[10](#10)[11](#11)[12](#12)


OpenClaw 官方 FAQ 给出的 VPS 基线是:

  • 绝对最低:1 vCPU、1GB RAM、约 500MB 磁盘;
  • 更实用的推荐:1--2 vCPU、2GB RAM 或以上;
  • 如果你还会跑浏览器控制、媒体、多个渠道、Node 工具,建议再往上加。[13](#13)

对腾讯云来说,我更建议:

  • 测试机:2C2G
  • 长期在线 + 多渠道:2C4G 更稳;
  • 系统选择:Ubuntu 22.04 LTS / 24.04 LTS

腾讯云官方文档说明:只有在安全组里放通端口,对应服务才能访问;修改服务端口后,也必须同步在安全组里放通。[14](#14)

初始安装阶段建议只开:

  • :SSH 登录;

不建议一上来就开:

  • :OpenClaw 默认控制面端口。建议先不对公网开放,改为本地回环 + SSH 隧道访问;

只有在你接这些渠道时再开:

  • :给反向代理或 HTTPS webhook 用;
  • 某些插件的自定义 webhook 端口,例如微信插件 README 中常见的 ;
  • 但这类端口必须配合 HTTPS、来源限制、token/auth 一起考虑。

最稳的原则:

OpenClaw Dashboard 不直接**到公网;对公网开放的只应该是你明确需要的 webhook / 反向代理入口。

OpenClaw 官方安全文档也明确把"非 loopback 绑定但未鉴权"列为高风险项。[12](#12)


先用腾讯云控制台拿到服务器公网 IP,通过 SSH 连进去:

 

更新系统:

创建一个专门跑 OpenClaw 的普通用户:

为什么这么做?因为 OpenClaw 官方安全文档建议把一个 Gateway 视作一个可信边界,最好一台主机 / 一个 OS 用户对应一个边界;同时,你用普通用户运行,也更符合 Linux 的长期服务实践。[11](#11)[12](#12)


OpenClaw 官方 Getting Started 给出的最快安装路径是:

GPT plus 代充 只需 145 

其中官方前提条件是 Node 22 或更新版本 。安装脚本是官方推荐路径。[10](#10)

所以你在 用户下直接执行:

 

如果 不是 22+,先修 Node,再继续。

5.1 跑 onboarding

GPT plus 代充 只需 145 

Linux 上,官方向导会尽量给你装成 systemd user unit ,并尝试 ,让你退出 SSH 后服务还能继续运行。[15](#15)

5.2 向导里怎么选

推荐你这样选:

  • Mode:Local
  • Gateway bind
  • Gateway auth
  • Gateway port :默认
  • Model/Auth:先选 Volcengine(推荐),或选 Custom Provider(如果你要自己填方舟兼容接口)
  • Daemon:安装

安装完成后检查:

如果服务没有自动起来,你可以补一遍:


火山引擎官方文档明确写了:方舟模型 API 尽可能兼容 OpenAI API ,通常只需要改少量配置,例如 、、。[16](#16)

而 OpenClaw 官方文档又提供了两条路:

  1. 直接使用官方内置的 Volcano Engine provider(推荐)
  2. 把 Ark 某个 OpenAI-compatible 接入点当作 Custom Provider 接进去[1](#1) [17](#17)

如果你只是想稳定地用方舟 / Doubao / 方舟里的常见模型,这条最简单。

官方 Model Providers 文档给出的信息是:

  • provider:
  • 认证环境变量:
  • CLI:
  • 示例模型:
  • coding 相关 provider:,例如 [1](#1)

推荐做法

把 key 写进 :

然后重启或重新加载网关:

你也可以重新跑一次向导:

最小配置示例

如果你不是想直接用 OpenClaw 预设的 模型,而是:

  • 你在方舟控制台里创建了自己的 Endpoint / 接入点;
  • 你想走自己那条 OpenAI-compatible base URL;
  • 或者你需要绑定某个特定 endpoint/model id;

那么用 OpenClaw 官方支持的 Custom Provider 更合适。官方 onboarding 文档明确写了:Custom Provider 支持 OpenAI-compatible 或 Anthropic-compatible 端点 ,需要你提供 、、 和一个 。[17](#17)

交互式做法

然后在向导里选择:

  • Custom Provider
  • OpenAI-compatible
  • 填入方舟控制台给你的 OpenAI 兼容
  • 填入
  • 填入

手工配置示例

注意:下面的 和模型 ID 需要以你在火山方舟控制台里看到的值为准;不同账号、区域、Endpoint 配置可能不同。

这种写法本质上就是套用了 OpenClaw 官方 自定义 provider 方案。官方配置示例里同样给出了 的模板。[18](#18)


OpenClaw 官方文档说明,默认配置文件在:

环境变量会从以下位置读取:

  • 父进程环境变量
  • 当前工作目录的
  • (全局 fallback)[19](#19)

建议你重点记住这些位置:

 

官方还说明: 的改动多数情况下支持热加载,不一定每次都需要手工重启。[20](#20)


下面给你一份比较适合腾讯云长期运行的基础版模板:

GPT plus 代充 只需 145 

这个模板体现了几个原则:

  1. Dashboard 不暴露公网 :;
  2. 必须有 token
  3. 主模型用方舟 / Doubao
  4. 备用模型加 GLM、Kimi
  5. Moonshot 这种 OpenAI-compatible 的国内 provider 单独写进 [1](#1)[18](#18)[19](#19)[20](#20)

先说最关键的一句:

微信、飞书、小艺、Telegram、Slack 这些大多不是 skills,而是 channel / plugin / platform integration。

所以你的接入思路应该是:

  1. 先把模型通了
  2. 再把 Gateway 通了
  3. 再按需接入 channel/plugin
  4. 最后才补 ClawHub skills

OpenClaw 官方渠道页说明:

  • Feishu 通过 WebSocket 事件订阅接入;
  • 当前版本通常已随 OpenClaw 打包,无需额外安装 ;若未打包,可手动:




  • 最推荐的方式是直接用 或 ;
  • 这种方式的优点是:不需要公开 webhook URL[21](#21)

CLI 接入

最小配置示例

官方 Feishu 文档还给了比较完整的控制台步骤:创建企业应用、获取 App ID / App Secret、导入权限、启用 bot 能力、事件订阅选择 Use long connection to receive events (WebSocket) ,并添加事件 。[21](#21)

对中国区办公协作场景来说,Feishu 是目前最适合放在第一优先级的国内渠道

目前 OpenClaw 官方文档没有把"微信个人号"列成第一方正式 channel,但官方 Community plugins 页面已经收录了一个高质量微信社区插件:

 

官方社区插件页对它的描述是:通过 WeChatPadPro(iPad 协议)连接微信个人号,支持文本、图片、文件等。[22](#22)

更详细的社区配置参考

另一个社区插件 README()给出了较完整的云端配置示例,包括:

  • 首次登录扫码等[23](#23)

示例大致是:

微信接入时你要特别注意的 4 个点

  1. 这类插件通常不是 OpenClaw 第一方官方稳定 channel
  2. 个人微信号接入往往依赖第三方协议、代理或二维码登录;
  3. 很多实现会要求 公网可达的 webhook 地址
  4. 风险控制、合规、封号风险要你自己承担。

因此:

  • 如果你要企业内使用,优先考虑 飞书 / 企业微信 / Telegram
  • 如果你就是要个人微信做入口,优先使用文档完整、更新活跃、Issue 有维护者响应的社区插件。

OpenClaw 官方 LINE 文档说明:

  • LINE 是 plugin channel
  • 通过 LINE Messaging API 接入;
  • 需要 和 ;
  • 需要把 webhook 指向:




  • 要求 HTTPS[24](#24)

所以 LINE 更适合:

  • 你已经有域名;
  • 你愿意在腾讯云上配 Nginx/Caddy + HTTPS;
  • 面向国际或东亚用户场景。

这些都在官方 channels 文档里,通常比微信类社区插件更成熟。官方还明确说:

  • 最快成功的通常是 Telegram
  • WhatsApp 需要 QR 配对,状态文件更多;
  • 支持多渠道同时运行。[3](#3)

如果你只是想尽快验证整套 Gateway 正常工作,建议你先接:

  1. Dashboard
  2. Telegram
  3. Feishu

这样排错最容易。

这个部分要单独说明:

它不是传统意义上的 OpenClaw skill

根据华为官方开发者文档检索结果,小艺开放平台已经新增 OpenClaw 模式。官方检索摘要显示:

  • 在"小艺开放平台 / 鸿蒙智能体"中,用户可以在"标准创建"的"编排方式"里选择 OpenClaw 模式
  • 官方接入步骤大致是:
    1. 服务器安装 OpenClaw;
    2. 创建 OpenClaw 智能体;
    3. 将智能体 channel 配置接入 OpenClaw 服务器。[25](#25)[26](#26)[27](#27)

这意味着什么

这说明"小艺"更像是:

  • 平台侧的 OpenClaw 接入模式
  • 或者说,是华为小艺生态把你的 OpenClaw 网关当成后端智能体;
  • 不是你在 ClawHub 里 的 skill

当前最稳的操作建议

由于华为相关页面在当前环境里无法完整渲染出字段级文档,我建议你按下面思路接:

  1. 先按本文把 OpenClaw 在腾讯云上跑通
  2. 准备一个稳定可访问的 Gateway(建议带 token,必要时配反向代理);
  3. 打开 小艺开放平台
  4. 创建智能体时选择 OpenClaw 模式
  5. 按平台当前页面提示填写:
    • Gateway 地址 / 回调地址 / channel 信息
    • 必要的 token / 密钥
    • 智能体名称、人设、入口能力等
  6. 首次只做最小链路验证:让小艺能把问题送到 OpenClaw 并拿回一条文本回复。

我对你更务实的建议

  • 第一阶段:先把 OpenClaw + 方舟 + Dashboard + Feishu 跑通;
  • 第二阶段:再接小艺;
  • 因为小艺这条链路属于"平台集成",其字段、审核、入口和能力集都可能随着平台版本快速变化。

Linux 上安装 skills,官方 FAQ 的原话很明确:

  • macOS 的 Skills UI 在 Linux 上不可用
  • Linux 请使用 ClawHub CLI 或把 skills 目录直接放进工作区。[5](#5)

OpenClaw 官方 skills / ClawHub 文档给出的常见动作就是这些。[6](#6)[28](#28)

如果某个 skill 显示 blocked,通常说明:

  • 依赖 CLI 没装;
  • OS 不匹配;
  • 权限 / PATH / 环境变量缺失。

官方 FAQ 也明确提到:Linux 上不能直接跑仅限 macOS 的技能,除非你采用 Mac gateway 或 Mac node 等特殊架构。[5](#5)

更适合放进"skills / 工具能力"的方向

  • Google Suite / Gmail / Calendar 相关;
  • GitHub / Linear / Notion / Home Assistant;
  • 读写文件、自动化脚本、抓图、摄像头、语音;
  • 社区里已经在 ClawHub 有现成 skill 的能力。

更适合放进"channel / plugin"的方向

  • 微信
  • 飞书
  • LINE
  • Telegram
  • Slack
  • 小艺

所以你后续扩展时,优先记住一句:

平台入口优先看 channel/plugin,任务能力优先看 skill。


这是本文里最容易被写错的一段,所以我拆成两部分。

截至我检索到的文档与社区讨论:

  • 官方 ACP 文档写明:bridge mode 不支持 per-session [7](#7)
  • 社区讨论中,已经有人在 里加 后直接遇到:
    [8](#8)



  • 甚至就在最近,GitHub 上仍有"希望把 MCP server config 正式纳入 schema"的 issue。[9](#9)

所以如果你现在是在腾讯云上做稳定生产部署,我的建议是:

不要把 MCP 放成第一天必须完成的事项

先跑通:

  1. Gateway
  2. Volcengine 模型
  3. 一个稳定渠道(例如 Feishu / Telegram)
  4. Skills

然后再回来折腾 MCP。

OpenClaw 默认能力清单里已经把 mcporter 描述为:

用于管理外部 Skill 后端的工具服务器运行时 / CLI。[29](#29)

另外,社区近期 issue 也显示:

  • 某些 MCP server 今天已经能通过 mcporter bridge 工作[30](#30)
  • Z.AI / GLM 相关的 MCP 工具(例如 、、)目前也更多是通过 这种路径接,而不是稳定的一等 顶层配置。[31](#31)

你应该怎么理解这件事

  • 官方稳定层面:MCP 还没形成"像 channels 一样成熟的一套顶层用户配置手册";
  • 工程实践层面 :已经有人在用 桥接一部分 MCP server;
  • 所以目前最稳的姿势
    • 把 MCP 视为"高级增强项";
    • 优先跟着具体 provider / plugin / community repo 的 README 配;
    • 不要先入为主地在 里硬塞一个 顶层块。

第一优先级:先用 OpenClaw 自带 tools + skills

很多你以为要靠 MCP 做的事,OpenClaw 当前已经能通过:

  • 内置 tools
  • channel plugins
  • ClawHub skills
  • provider-specific capability

直接完成。

第二优先级:只接你最需要的 1 个 MCP

例如:

  • Notion / Linear / Postgres / Browser / 搜索

不要一次上 5 个。

第三优先级:把 MCP 配置跟主配置隔离管理

如果你后面真的走 ,建议你把这部分单独放在工作区 下,避免把主配置文件越改越乱。


OpenClaw 官方安全模型是"一个 Gateway 对应一个可信边界",而不是多租户隔离平台。长期运行时,用专门普通用户比 root 更稳。[11](#11)[12](#12)

更推荐:

  • 宿主机本地或你的电脑上用 SSH 隧道访问

例如:

然后在本地打开:

  • Feishu:WebSocket,可不暴露公网 webhook;[21](#21)
  • LINE:要求 HTTPS webhook;[24](#24)
  • 微信社区插件:一般也要求公网回调地址。[23](#23)

所以不要为了 Dashboard 方便就把 18789 公网放开。

官方安全审计清单明确把插件 / 扩展列为需要重点留意的风险面之一。[32](#32)

Linux 没有 macOS 那种 Skills UI,记住用 ClawHub。[5](#5)

如果你今天的目标是"先把智能体跑起来",那就先别让 MCP 拖慢主线。


如果你想尽量少踩坑,直接按这个顺序做:

第 1 步:腾讯云准备

  • 买 Ubuntu 22.04/24.04 CVM
  • 安全组只放
  • 先别对公网开放

第 2 步:系统初始化

GPT plus 代充 只需 145 

第 3 步:安装 OpenClaw

第 4 步:先接方舟模型

优先选:

  • 默认模型选一个

第 5 步:确认 Gateway 正常

 

第 6 步:本地用 SSH 隧道打开 Dashboard

第 7 步:先接一个最稳的渠道

优先顺序建议:

  1. Dashboard
  2. Telegram
  3. Feishu
  4. 其他

第 8 步:再接国内增强项

  • 微信:社区插件
  • 小艺:平台 OpenClaw 模式
  • Moonshot / GLM / MiniMax / Qianfan:作为模型 provider 增加 fallback

第 9 步:最后再做 skills 和 MCP

GPT plus 代充 只需 145 

MCP 则只挑一个最需要的场景开始试,不要一次铺太大。



  1. OpenClaw 官方文档《Model Providers》:https://docs.openclaw.ai/concepts/model-providers ↩︎ ↩︎ ↩︎ ↩︎
  2. OpenClaw 官方文档《Getting Started》:https://docs.openclaw.ai/start/getting-started ↩︎
  3. OpenClaw 官方文档《Chat Channels》:https://docs.openclaw.ai/channels ↩︎ ↩︎
  4. OpenClaw 官方文档《Plugins》:https://docs.openclaw.ai/tools/plugin ↩︎
  5. OpenClaw 官方 FAQ《How do I install skills on Linux》:https://docs.openclaw.ai/help/faq ↩︎ ↩︎ ↩︎ ↩︎
  6. OpenClaw 官方文档《Skills》:https://docs.openclaw.ai/tools/skills ↩︎ ↩︎
  7. OpenClaw 官方文档《ACP CLI》:https://docs.openclaw.ai/cli/acp ↩︎ ↩︎
  8. GitHub Discussion《How to connect Notion to OpenClaw agent via MCP or API?》:https://github.com/openclaw/openclaw/discussions/22164 ↩︎ ↩︎
  9. GitHub Issue《Feature: MCP server config support in openclaw.json》:https://github.com/openclaw/openclaw/issues/43509 ↩︎ ↩︎
  10. OpenClaw 官方文档《Getting Started》:https://docs.openclaw.ai/start/getting-started ↩︎ ↩︎
  11. OpenClaw 官方文档《Security》:https://docs.openclaw.ai/gateway/security ↩︎ ↩︎ ↩︎
  12. OpenClaw 官方安全检查 / FAQ / Troubleshooting 相关文档汇总:https://docs.openclaw.ai/gateway/security ↩︎ ↩︎ ↩︎ ↩︎
  13. OpenClaw 官方 FAQ《What are the minimum VPS requirements and recommended OS》:https://docs.openclaw.ai/help/faq ↩︎
  14. 腾讯云官方文档《云服务器 端口问题》:https://cloud.tencent.com/document/product/213/2502 ↩︎
  15. OpenClaw 官方《Onboarding Wizard Reference》:https://docs.openclaw.ai/reference/wizard ↩︎
  16. 火山引擎官方文档《兼容 OpenAI SDK》:https://www.volcengine.com/docs/82379/ ↩︎
  17. OpenClaw 官方文档《Onboarding Overview / Custom Provider》:https://docs.openclaw.ai/start/onboarding-overview ↩︎ ↩︎
  18. OpenClaw 官方文档《Configuration Examples》:https://docs.openclaw.ai/gateway/configuration-examples ↩︎ ↩︎
  19. OpenClaw 官方文档《Configuration》:https://docs.openclaw.ai/gateway/configuration ↩︎ ↩︎
  20. OpenClaw 官方文档《Configuration》关于 hot reload:https://docs.openclaw.ai/gateway/configuration ↩︎ ↩︎
  21. OpenClaw 官方文档《Feishu》:https://docs.openclaw.ai/channels/feishu ↩︎ ↩︎ ↩︎
  22. OpenClaw 官方文档《Community plugins》中的 WeChat 条目:https://docs.openclaw.ai/plugins/community ↩︎
  23. 社区插件 README《freestylefly/openclaw-wechat》:https://github.com/freestylefly/openclaw-wechat ↩︎ ↩︎
  24. OpenClaw 官方文档《LINE》:https://docs.openclaw.ai/channels/line ↩︎ ↩︎
  25. 华为官方检索摘要《OpenClaw接入-小艺开放平台》:https://developer.huawei.com/consumer/cn/doc/service/openclaw-000000 ↩︎
  26. 华为官方检索摘要《鸿蒙智能体 / 编排方式差异》:https://developer.huawei.com/consumer/cn/doc/service/differences-in-arrangement-modes-000000 ↩︎
  27. 华为开发者论坛摘要《小艺智能体接入OpenClaw》:https://developer.huawei.com/consumer/cn/forum/topic/00?fid=00 ↩︎
  28. OpenClaw 官方文档《ClawHub》:https://docs.openclaw.ai/tools/clawhub ↩︎
  29. OpenClaw 官方默认 AGENTS 参考(mcporter 描述):https://docs.openclaw.ai/reference/AGENTS.default ↩︎
  30. GitHub Issue 片段《MCP servers works with mcporter today》:https://github.com/openclaw/openclaw/issues/20681 ↩︎
  31. GitHub Issue《Auto-configure Z.AI MCP tools during onboard》:https://github.com/openclaw/openclaw/issues/19101 ↩︎
  32. OpenClaw 官方文档《Security Audit Checklist》:https://docs.openclaw.ai/gateway/security ↩︎

小讯
上一篇 2026-03-16 18:06
下一篇 2026-03-16 18:04

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/238878.html