还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!GMI Cloud Inference Engine nbsp 是全球 AI 模型统一接入与在线使用的 高性能推理引擎平台 底层搭载 H100 H200 芯片 集成全球近百个最前沿的大语言模型和视频生成模型 如 Minimax DeepSeek GPT OSS Qwen Kling 等 为 AI 开发者与企业提供速度更快 质量更高的模型服务 本期任务目标 在 OpenClaw

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Minimax、DeepSeek、GPT OSS、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。

本期任务目标:在 OpenClaw 中接入 GMI Inference Engine 的模型 API,借助 OpenClaw 高度灵活的扩展能力,打造专属的本地化 AI 工作助手~

OpenClaw 是一款强大的 AI 助手集成平台,支持将各类前沿大模型与飞书等主流协作工具无缝对接,高度灵活的扩展能力可实现自定义 API 接入、多消息通道配置,轻松打造专属的本地化 AI 工作助手。

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Mac

话不多说,跟着步骤操作,轻松完成对接,解锁全新使用体验~

01

   准备工作:环境就绪  

Get ready?

首先确认设备满足基础环境要求,让后续操作更顺畅!具体配置要求是这样的:

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Mac_02

满足系统要求后,还需要安装好Git,直接前往 Git 官网按照提示完成安装即可,操作简单无难度。

本文以 Windows 系统为例展开讲解,同时附上 Mac 和 Linux 的安装方式,大家可根据自己的设备系统自行选择。

管理员身份的 PowerShell中执行命令:

npm install -g openclaw-cn@latest

npm install -g openclaw-cn@latest

Mac和Linux端则在终端中运行以下命令:

curl -fsSL https://openclaw.ai/install.sh | bash curl -fsSL https://openclaw.ai/install.sh | bash

该命令将自动完成以下操作:

✅ 在用户环境中安装 OpenClaw

✅ 自动安装所需的依赖项

✅ 启动 OpenClaw 引导配置流程

💡 异常处理(仅 Windows)

若遇 “无法加载脚本” 错误,依次执行以下命令修复:Get-ExecutionPolicy → 若返回 Restricted,执行 Set-ExecutionPolicy RemoteSigned 输入 Y 确认,重新执行安装命令即可。

安装完成后,启动交互式引导配置流程,执行命令:

openclaw-cn onboard –install-daemon

openclaw-cn onboard –install-daemon

程序启动后弹出安全警告,选择【Yes】继续,后续出现 “快速启动(Quickstart)” 选项直接选中,开启后续配置~

02

   API 接入步骤   

API Connection Guide

引导流程中按提示依次操作,完成 GMI Inference Engine 中模型 API 与 OpenClaw 的对接,每一步都超清晰,跟着做就对了!

步骤1:选择模型提供商

提示 Model / auth provider 时,Windows 端选择【自定义模型 (兼容 OpenAI/Anthropic) 】后选择【Custom Provider API key】;

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Windows_03

Mac/Linux 用户选择 【Custom Provider (Any Open or Anthropic compatible endpoint)】(列表倒数第二位)

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_API_04

步骤2:输入 API Base URL

在Windows 端,在提示 Select protocol 时我们需选【OpenAI Compatible】随后输入的 ID 输入 gmi ,提示 API Base URL 时,输入:


https://api.gmi-serving.com/v1

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Windows_05


Mac/Linux 用户直接输入即可;

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_API_06

步骤3:选择 API Key 提供方式

到这一步,Windows 端可以先确认自己心仪的模型,这些都是可选的模型示例:

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Mac_07

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_API_08

Mac/Linux 用户会提示 How do you want to provide this API key? 时,这时选择Paste API key now,回车确认;

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Windows_09

步骤4:获取 API Key

打开 GMI Cloud Inference Engine【API Keys】【Create API Key】,自定义名称后生成密钥,立即复制保存(仅创建时可见,刷新后将无法查看)

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Mac_10

步骤5:粘贴 API Key

在引导程序的 API Key 输入框中,粘贴复制的 API Key(若无法粘贴,可以试着右键窗口直接粘贴或手动输入),回车确认;

步骤6:选择端点类型

Windows 端在输入完 API Key 后,选 gmi,再在后面的模型列表里选你想要的模型,即可大功告成;

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Mac_11

Mac/Linux 用户提示 Endpoint compatibility 时,选择【OpenAPI-compatible (Uses /chat/completions)】,回车确认,随后继续完成以下操作:

步骤7:选择模型 ID

提示 Model ID 时,输入 GMI Cloud 支持的模型 ID,即步骤3的示例模型;

步骤8:设置端点别名

提示 Endpoint ID 时,输入自定义别名(如 GMI),回车确认;

步骤9:设置模型别名(可选)

提示 Model alias (optional) 时,可输入别名(如 Gemini)或直接回车,完成后系统将自动验证配置有效性,验证通过即进入消息通道配置~

还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!_Windows_12

如果想学习如何配置消息交互通道,不妨点击关注我们,下一期将为大家详细分享具体操作方法~

小讯
上一篇 2026-04-11 12:24
下一篇 2026-04-11 12:22

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/256857.html