本文详细介绍了如何在OpenClaw AI中成功接入并调用国产高性能开源大模型InternLM2(书生大模型),涵盖从模型兼容性确认、使用lmdeploy本地部署API服务、配置OpenClaw的models.yaml文件,到在Web UI和CLI中切换测试、乃至启用工具调用(Tool Calling)的完整实操流程——无论你是想私有化部署、追求低延迟响应,还是需要让书生大模型真正“动起来”执行文件操作等实际任务,这篇教程都提供了清晰、可靠、开箱即用的技术路径。

如果您在使用 OpenClaw AI 时希望接入 InternLM2(书生大模型),需确认该模型是否已纳入 OpenClaw 支持的模型列表,并完成对应配置。InternLM2 是面向中英文双语的高性能开源大语言模型,具备强推理、长文本理解与代码能力,OpenClaw 可通过标准 API 接口或本地运行时方式调用。以下是具体配置与调用步骤:
OpenClaw 不直接内置 InternLM2,但支持通过标准化协议接入任意兼容 OpenAI 兼容 API 的后端服务。InternLM2 可通过 lmdeploy、vLLM 或 OpenRouter 等中间层暴露为类 OpenAI 格式接口,从而被 OpenClaw 识别并调用。该方式不依赖云端模型服务商,完全可控且适配私有部署场景。
1、访问 InternLM 官方 GitHub 仓库,下载对应版本的模型权重(如 internlm2_7b、internlm2_20b)。
2、使用 lmdeploy 启动本地服务:执行命令 lmdeploy serve api_server internlm2_7b --model-format hf --quant-policy 0 --server-port 23333。
3、验证服务是否就绪:在浏览器中访问 http://127.0.0.1:23333/docs,确认 Swagger UI 页面可正常加载并显示 /v1/chat/completions 等端点。
OpenClaw 通过 model config 文件定义模型源,需手动添加一条指向本地 lmdeploy 服务的配置项。该配置将被 runEmbeddedPiAgent 阶段读取并用于构造请求头与 endpoint 地址。
1、打开 OpenClaw 配置目录中的 models.yaml 文件(路径通常为 ~/.openclaw/config/models.yaml)。
2、在 models 列表末尾新增如下 YAML 片段:
- name: internlm2-local
provider: openai
base_url: http://127.0.0.1:23333/v1
api_key: none
3、保存文件后重启 OpenClaw 服务,使配置生效。
Web 界面通过 /model 命令触发模型切换逻辑,底层调用 runAgentTurnWithFallback 进行模型路由判定。成功配置后,InternLM2 将出现在可用模型列表中,且支持流式响应与上下文延续。
1、在 OpenClaw Web 界面左侧聊天输入框中输入指令:/model internlm2-local。
2、执行后观察右上角状态栏是否显示当前模型名称变为 internlm2-local。
3、发送测试提示:“请用中文解释 Transformer 架构的核心思想”,确认响应内容由 InternLM2 生成且格式正确。
OpenClaw CLI 模式绕过 Web 层,直接进入 getReplyFromConfig 入口函数,适用于脚本化集成与自动化测试。该路径可跳过会话管理,强制指定模型与参数,适合验证模型基础能力。
1、在终端中执行命令:openclaw chat --model internlm2-local --prompt "写一段 Python 函数,实现快速排序"。
2、等待输出完成,检查返回代码是否语法正确、逻辑完整。
3、如需调试 Token 消耗或响应延迟,追加 --verbose 参数查看详细日志。
InternLM2 原生不支持 function calling 输出格式,但可通过配置 output_parser 插件实现结构化解析。OpenClaw 在 runPreparedReply 阶段注入系统提示,引导模型按 JSON Schema 输出 tool_calls 字段,再由 runEmbeddedPiAgent 解析执行。
1、编辑 ~/.openclaw/config/skills/internlm2-tool-prompt.md,在 system_prompt 区域添加说明:“你必须严格按 JSON 格式输出,包含 action 和 action_input 字段,不得添加任何额外文本。”
2、在 models.yaml 中为 internlm2-local 添加字段:tool_parser: json。
3、在对话中输入:“帮我把当前目录下所有 .txt 文件打包成 archive.zip”,观察是否触发 file_tool 执行。
以上就是《OpenClawAI支持InternLM2吗?书生大模型调用教程》的详细内容,更多关于openclaw的资料请关注golang学习网公众号!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/283684.html