OpenClaw(原ClawdBot/MoltBot)接入国内模型Minimax保姆级安装部署配置教程

OpenClaw(原ClawdBot/MoltBot)接入国内模型Minimax保姆级安装部署配置教程svg xmlns http www w3 org 2000 svg style display none svg

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 <svg xmlns="http://www.w3.org/2000/svg" style="display: none;"> <path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path> </svg> <p><img src="https://i-blog.csdnimg.cn/direct/a05f04196d6e4cf59079b14aca.png" alt="在这里插入图片描述" /></p> 

GPT plus 代充 只需 145

如果你正在寻找一个能在本地运行、真正能够协助完成工作的AI助手,OpenClaw(之前也叫ClawdBot或MoltBot)值得尝试。作为一个开源的本地优先AI代理与自动化平台,它的核心定位很明确:通过自然语言指令,替代人工完成那些流程化、重复性的工作——简而言之,就是“真正干活的AI”。

今天本文将详细指导在Linux系统上部署和配置OpenClaw。相比那些云端AI助手,OpenClaw的最大优势在于数据完全由你掌控:所有任务数据默认存储在本地设备,不经过第三方服务器,隐私安全更有保障。而且它能通过飞书、钉钉等常用聊天工具直接交互,无需安装专用客户端,使用起来非常方便。

环境说明:我在CentOS Stream 9上完成了这次部署,实际测试过程较为顺利。需要注意的是,OpenClaw要求Node.js版本不低于22,所以如果你还在用CentOS 7这类老系统,可能需要先升级或换个新的发行版。硬件方面,建议至少有2GB内存,建议4GB以上,这样运行性能更佳。


OpenClaw依赖Node.js运行环境,我们推荐通过nvm(Node Version Manager)来安装和管理Node.js版本。使用nvm的优势在于版本切换方便,不会影响系统其他服务。安装过程相对简单,主要通过nvm管理Node.js版本。打开终端,按照以下步骤操作:

官方文档地址:https://nodejs.org/zh-cn/download

安装步骤

讯享网

在安装OpenClaw之前,需要先安装一些必要的编译工具和依赖包,以避免后续安装过程中出现各种常见错误:

 
     

注意:上述命令适用于基于RHEL的系统(如CentOS、Fedora)。如果你使用的是Ubuntu或Debian,请将替换为:。

官方建议:如果你计划从源代码构建OpenClaw,可以安装pnpm(推荐但不是必须的)。另外,为了获得更好的网页搜索体验,建议获取Brave Search API密钥,可以通过命令配置。


OpenClaw提供了多种安装方式,你可以选择最适合你的一种。官方推荐使用安装脚本,但如果网络环境不好,也可以直接用npm安装。

方式一:使用官方安装脚本(推荐)

讯享网

在这里插入图片描述
GPT plus 代充 只需 145
需要注意的是:如果脚本卡住不动,大概率是网络问题。无需长时间等待,直接换npm安装方式就行,下文将详细说明。

通过方式安装成功后自动进入初始化配置界面,不需要再输入下方指令了。

Windows用户注意:如果你在Windows上部署,可以使用PowerShell安装脚本:

 
      

方式二:使用 npm 全局安装

讯享网

在这里插入图片描述
安装完成后,可以验证是否安装成功:

 
      

在这里插入图片描述

如使用npm安装时出现任何问题,请按照步骤二安装必要的前置依赖。


安装完成后,运行以下命令进入配置向导:

讯享网

在这里插入图片描述

  1. 使用键盘方向键选择Yes同意风险说明。
  2. 选择安装方式,这里我们选择“QuicStart”快速入门
    在这里插入图片描述
  3. 模型选择这部分由于OpenClaw默认提供的都是国际版模型,我们待会配置完需要改用国内大模型,就先暂时跳过这步骤,选择“Skip for now”跳过
    在这里插入图片描述
  4. 选择模型供应商,这边随便选,反正待会也会重新配置国内模型,这里我先随便选成minimax了
    在这里插入图片描述
  5. 同理这一步也随便选,直接回车
    在这里插入图片描述
  6. 选择聊天工具,目前OpenClaw提供的聊天工具基本都是国际软件,在国内很难使用,待会我们会配置飞书聊天工具,所以这里先选择“Skip for now”跳过
    在这里插入图片描述
  7. 安装技能,首次安装就不要安装技能了,先将OpenClaw安装完毕,之后再安装技能,选择“No”
    8.
  8. 是否启用钩子(hooks),建议是将这三个全部打开,通过空格键勾选,回车键确定
    在这里插入图片描述
    功能说明:
    • boot-md:能在OpenClaw启动时自动执行BOOT.md里的任务,实现自动化工作流
    • command-logger:把所有操作都记下来方便排查问题,便于后期调试
    • session-memory:在切换会话时保存上下文,避免信息丢失,确保对话连续性


  9. 提示如下信息稍等一会。
    在这里插入图片描述
  10. 安装shell补全脚本,这里安装和不安装都可以,建议是安装,主要用处就是在你使用OpenClaw CLI时可以按Tab来帮你自动补全一些信息。
    在这里插入图片描述
    到此OpenClaw的基础配置就结束了,接下来是设置飞书聊天集成。


OpenClaw支持多种平台接入,这也是它的一大亮点——无需专用客户端,通过现有聊天工具就能操作。国内用户用飞书比较多,所以本文以飞书为例进行说明。

5.1 获取飞书应用凭证

首先需要在飞书开放平台创建应用并获取必要的凭证:

  1. 访问飞书开放平台-开发者后台:https://open.feishu.cn/app
  2. 创建企业自建应用
    在这里插入图片描述
    在这里插入图片描述

  3. 添加机器人应用能力
    在这里插入图片描述
  4. 发布应用版本
    在这里插入图片描述
    在这里插入图片描述

  5. 获取 App ID 和 App Secret
    在这里插入图片描述

5.2 安装飞书插件

在OpenClaw中安装飞书官方插件:

 
        

[在此处插入插件安装过程截图]
如果提示安装失败,就删除安装目录后再次执行命令安装。

讯享网

5.3 配置飞书渠道

安装插件后,需要添加飞书渠道配置:

方式一:使用shell命令配置(快速配置)

修改脚本中的AppId和AppSecret后直接执行以下命令,配置效果与方式二一样。

 
        

在这里插入图片描述

方式二:通过配置界面按步骤配置
讯享网
  1. 添加渠道配置,勾选“Yes”
    在这里插入图片描述
  2. 选择飞书渠道

在这里插入图片描述

  1. 按照提示输入你在飞书开放平台获取的 App ID 和 App Secret。

在这里插入图片描述

  1. 选择国内飞书
    在这里插入图片描述
  2. 选择响应策略,这边根据具体场景选择,我就先选择Disabled在这里插入图片描述
  3. 结束渠道配置
    在这里插入图片描述
  4. 访问策略选择“No”
    在这里插入图片描述
  5. 添加显示名称可选配置我们也选择“No”
    在这里插入图片描述

5.4 配置飞书权限事件

  1. 配置事件
    在这里插入图片描述
    在这里插入图片描述

  2. 添加事件
    在这里插入图片描述
    在这里插入图片描述

  3. 配置回调
    在这里插入图片描述
    在这里插入图片描述

  4. 配置权限,直接批量导入以下json
    在这里插入图片描述
 
        

在这里插入图片描述
在这里插入图片描述

  1. 再次发布版本
    在这里插入图片描述
    在这里插入图片描述


OpenClaw支持多种大模型提供商,这是它另一个强大之处——你可以根据需求灵活切换。经过实际使用体验,我推荐使用MiniMax作为主力模型,它有不错的性价比和效果,而且对中文支持很好。

如需其他模型配置建议查看我另一篇文章《OpenClaw国内大模型配置指南:MiniMax、GLM、Kimi、Qwen全攻略》

6.1 配置 MiniMax 模型

使用以下命令配置MiniMax:

讯享网

注意:请将 替换为你从MiniMax获取的真实API Key。

在这里插入图片描述

6.2 切换使用 MiniMax 模型

配置完成后,使用以下命令切换到MiniMax模型:

 
         

完成所有配置后,可以进行简单的测试验证:

讯享网

配置完成后,启动OpenClaw服务:

 
         

打开飞书电脑客户端或手机客户端,通过搜索刚刚创建的机器人应用,对话验证是否接入成功。在这里插入图片描述
在这里插入图片描述
当机器人能够正常回复时,即可体验到OpenClaw的魅力——它能够实际协助完成工作,而非仅回答提问。


为了方便后续启动关闭openclaw,建议是讲openclaw配置成系统服务,通过systemctl来进行启动关闭操作

讯享网

Q1: Node.js 版本不满足要求怎么办?

A: 请确保使用Node.js &gt;= 22版本。如果已安装旧版本,可以使用nvm进行升级:

 
           

Q2: 安装插件失败怎么办?

A: 检查网络连接,或尝试使用国内镜像源。有时候网络波动会导致下载失败,可尝试多次。

Q3: 飞书渠道配置后无法接收消息?

A: 请检查飞书应用的权限配置,确保已授予必要的机器人权限。尤其是这个权限必须确保已授予。


经过完整的部署流程后,您应已成功搭建自己的OpenClaw环境。以下是对已完成工作的总结:

  1. Node.js环境安装:通过nvm管理Node.js版本,确保版本&gt;=22
  2. 前置依赖准备:安装必要的编译工具,避免后续安装出错
  3. OpenClaw核心安装:选择官方脚本或npm方式,根据网络环境灵活选择
  4. 初始化配置:通过配置向导完成基础设置,重点启用三个实用钩子
  5. 飞书渠道集成:在飞书开放平台创建应用,安装插件并配置通道
  6. MiniMax模型配置:切换至性价比高的国内大模型,中文支持更好
  7. 服务验证与启动:通过官方命令验证配置,启动Gateway服务

相比传统的云端AI助手,OpenClaw具备以下明显优势:

  • 数据隐私:所有数据都在你的设备上,不经过任何第三方服务器
  • 执行能力:不仅能回答问题,更能实际操作文件、命令行、浏览器等
  • 扩展灵活:通过ClawdHub有100+社区开发的技能模块可用
  • 接入方便:支持飞书、钉钉等常用工具,无需安装专用客户端

正如社区用户所言:“It’s the closest to experiencing an AI enabled future!”——这即是OpenClaw所带来的实际体验。

如果你在部署过程中遇到其他问题,可以参考官方文档(https://docs.openclaw.ai/)或在GitHub社区(https://github.com/openclaw/openclaw)提问。OpenClaw的社区相当活跃,开发者们都很乐意帮忙。

现在即可让AI助手开始实际工作!

官方文档:https://openclaw.ai/


小讯
上一篇 2026-03-11 12:52
下一篇 2026-03-11 12:54

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/212894.html