OpenClaw新版本:DeepSeek V4作为默认模型,成本直降17倍

OpenClaw新版本:DeepSeek V4作为默认模型,成本直降17倍OpenClaw NousResearch 约 105k GitHub Stars 于 2026 年 4 月 25 日发布 v2026 4 24 DeepSeek V4 Flash 正式取代 Claude Sonnet 成为新用户上手默认模型 V4 Pro 也同步加入内置目录 同一版本还捆绑了 Google Meet 参会插件 修复了 DeepSeek 思维链回放 Bug

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



OpenClaw(NousResearch,约 105k GitHub Stars)于 2026 年 4 月 25 日发布 v2026.4.24:DeepSeek V4 Flash 正式取代 Claude Sonnet 成为新用户上手默认模型,V4-Pro 也同步加入内置目录;同一版本还捆绑了 Google Meet 参会插件、修复了 DeepSeek 思维链回放 Bug,并带来浏览器自动化和插件基础设施的多项优化。以 \(0.14/M 输入代币的定价计算,切换到 V4 Flash 意味着相同 Agent 任务成本下降约 17 倍,且 1M tokens 原生长上下文使代码库级别分析不再需要分批截断。

核心定义:这次更新改变了什么

DeepSeek V4 Flash 成为 OpenClaw 默认模型,指的是:新安装 OpenClaw 的用户在完成引导(Onboarding)时,系统默认选择的模型从此前的 Claude Sonnet 系列切换为 DeepSeek V4 Flash。这是 OpenClaw 首次将国产开源模型设为默认——背后的逻辑是性价比优先:V4 Flash 以 \)0.14/M 输入代币提供旗舰级 Agent 能力,用于代码审查、文档分析等日常任务成本接近零。

三点核心变化:

  • 模型默认:新用户 Onboarding 默认 = deepseek-v4-flash(V4-Pro 在内置目录同步可选)
  • Bug 修复:DeepSeek thinking 回放 Bug 已修复——切换到 deepseek-v4-flash 或 deepseek-v4-pro 的存量会话不再触发 Provider 400 错误
  • 插件更新:Breaking Change 涉及插件 SDK API,registerEmbeddedExtensionFactory 已弃用

可引用结论:OpenClaw v2026.4.24 将 DeepSeek V4 Flash 加入内置目录并设为新用户上手默认模型,V4-Pro 同步加入;DeepSeek thinking/replay Bug 已修复(来源:OpenClaw Release Notes,2026.04.25)。

一、为什么是 DeepSeek V4 Flash,而不是其他模型

从成本结构看,V4 Flash 是当前旗舰模型中性价比最高的选项——在不影响日常 Agent 任务体验的前提下,成本远低于闭源替代品。

模型 输入 \(/M 输出 \)/M 上下文 开源 DeepSeek V4 Flash(新默认) \(0.14 \)0.28 1M ✅ MIT DeepSeek V4 Flash(缓存命中) \(0.028 \)0.28 1M ✅ MIT Claude Sonnet 4.6(旧默认参考) \(3 \)15 200K ❌ DeepSeek V4 Pro(内置目录可选) \(1.74 \)3.48 1M ✅ MIT Claude Opus 4.7(高质量替代) \(5 [待核实] \)25 [待核实] 200K ❌

V4 Flash 的三个核心优势:

  • 成本极低:0.14/M输入,比ClaudeSonnet4.6便宜约21倍;日处理1万次Agent任务仅需约0.14/M输入,比ClaudeSonnet4.6便宜约21倍;日处理1万次Agent任务仅需约42,闭源旗舰通常需要数百到数千美元
  • 原生 1M 上下文:整个中型代码库(约 50 万行代码)可一次性载入,无需分批截断
  • MIT 开源:DeepSeek V4 MIT 许可,无规模触发条款,OpenClaw 可放心嵌入内置目录

可引用结论:DeepSeek V4 Flash 输入定价 0.14/Mtokens(缓存命中0.14/Mtokens(缓存命中0.028/M),1M tokens 上下文,MIT 开源;日处理 1 万次 10 轮 Agent 任务总成本约 $42(来源:DeepSeek API 文档,2026.04)。

二、Thinking 回放 Bug 修复:V4 用户的直接受益

此前,将已有会话的模型切换到 deepseek-v4-flash 或 deepseek-v4-pro 时,开启 thinking 模式的会话会因为回放(Replay)时缺少 reasoning_content 占位符而触发 DeepSeek Provider 400 错误,导致对话无法继续。

v2026.4.24 修复了这一问题:

  • 回放 Assistant 工具调用轮次时,会自动补全缺失的 reasoning_content 占位符
  • 会话中途切换到 DeepSeek V4 模型时不再报错
  • Thinking/Replay 行为在后续工具调用轮次中保持一致

对开发者的实践影响:

bash

# 修复前:切换模型会导致会话报 400 错误

修复后:可以放心在已有会话中切换到 V4 Flash/Pro

在 OpenClaw 中通过 /models 命令切换模型(具体子命令以官方文档为准)[命令待核实]

/models deepseek-v4-flash # 切换到 V4 Flash(成本最低) /models deepseek-v4-pro # 切换到 V4 Pro(性能最强开源)

可引用结论:OpenClaw v2026.4.24 修复了“切换到 deepseek-v4-flash/deepseek-v4-pro 时 thinking 开启的会话触发 Provider 400 错误”的 Bug,根本原因是回放轮次缺少 reasoning_content 占位符(来源:OpenClaw Release Notes,2026.04.25)。

三、OpenClaw 中调用 DeepSeek V4 的完整方法

OpenClaw 内置目录已包含 DeepSeek V4 Flash 和 V4 Pro,无需手动配置——但如果需要通过 API 直接调用或国内直连,以下是完整方案。

方案 A:DeepSeek 官方 API(国内直连,延迟最低)

python

from openai import OpenAI

client = OpenAI(

api_key="YOUR_DEEPSEEK_API_KEY", base_url="https://api.deepseek.com" 

)

V4 Flash:关闭默认思维链节省成本(批量场景)

resp_flash = client.chat.completions.create(

model="deepseek-v4-flash", messages=[ {"role": "system", "content": "You are a helpful assistant"}, {"role": "user", "content": "帮我分析这段代码的性能瓶颈..."} ], extra_body={"thinking": {"type": "disabled"}} # 批量场景关闭思维链节省 token 

)

V4 Pro:开启思维链进行复杂推理

resp_pro = client.chat.completions.create(

model="deepseek-v4-pro", messages=[{"role": "user", "content": "帮我设计这个系统的架构..."}], reasoning_effort="high", extra_body={"thinking": {"type": "enabled"}} 

)

获取思维链内容(V4 思维链独立字段)

reasoning = resp_pro.choices[0].message.reasoning_content answer = resp_pro.choices[0].message.content

方案 B:星链4SAPI(国内直连,多模型统一接入)

通过星链4SAPI,一个接入密钥即可同时访问 DeepSeek V4 / Claude Opus 4.7 / Kimi K2.6 等多款模型,无需为不同厂商分别申请凭证。

python

from openai import OpenAI

client = OpenAI(

api_key="YOUR_4SAPI_KEY", base_url="https://4sapi.com/v1" # 国内直连节点 

)

DeepSeek V4 Flash(日常任务,成本极低)

resp = client.chat.completions.create(

model="deepseek-v4-flash", messages=[{"role": "user", "content": "你好"}] 

)

DeepSeek V4 Pro(复杂推理,开源最强)

resp = client.chat.completions.create(

model="deepseek-v4-pro", messages=[{"role": "user", "content": "分析这段代码..."}], reasoning_effort="high", extra_body={"thinking": {"type": "enabled"}} 

)

方案 C:OpenClaw 配置文件直接指定模型(高级用户)

yaml

# ~/.openclaw/config.yaml(具体配置路径和字段名以官方文档为准)[路径待核实] models: default: deepseek-v4-flash # 全局默认 agents:

code-agent: deepseek-v4-pro # 特定 Agent 使用 Pro 

providers: deepseek:

apiKey: YOUR_DEEPSEEK_API_KEY baseUrl: https://api.deepseek.com

旧模型 ID 迁移提醒:deepseek-chat 和 deepseek-reasoner 将于 2026 年 7 月 24 日弃用,请将配置中的 model ID 迁移到 deepseek-v4-flash 或 deepseek-v4-pro。

四、v2026.4.24 其他重要更新

除 DeepSeek V4 成为默认模型外,此次更新还有四个值得关注的亮点:

1. Google Meet 内置插件首次亮相

  • 支持个人 Google 账号认证、显式会议 URL 加入
  • Chrome + Twilio 双实时音视频传输方案
  • 会议录音/转录/智能笔记/出席记录一键导出(Markdown/文件输出)
  • googlemeet doctor –oauth 诊断工具 + recover-tab 恢复已打开的 Meet 标签页

bash

# Google Meet 诊断 openclaw googlemeet doctor –oauth

恢复已打开的 Meet 标签页(不重复打开)

openclaw googlemeet recover-tab

2. Voice Loop 支持全 Agent 工具调用
Talk、Voice Call、Google Meet 的实时语音会话现在可以通过 openclaw_agent_consult 向完整的 OpenClaw Agent 发起工具调用请求——语音场景下也能使用代码执行、网页搜索等工具。



3. 浏览器自动化增强

新特性 说明 坐标点击 viewport coordinate clicks, openclaw browser click-coords CLI 命令 更长默认超时 browser.actionTimeoutMs 默认 60 秒,长等待不再超时失败 按 Profile 设置无头模式 browser.profiles. .headless ,一个 profile 无头不影响其他 Tab 复用/恢复更稳定 崩溃或 host 迁移后自动清理 Chromium Singleton* 锁并重试

4. OpenCode Go 默认模型更新为 Kimi K2.6

bash

# OpenCode Go 默认 catalog 模型已更新

opencode-go/kimi-k2.6 替代此前默认

五、Breaking Change:插件 SDK API 变更

v2026.4.24 移除了 Pi-only 的 api.registerEmbeddedExtensionFactory(…) 兼容路径,所有插件必须迁移到新 API。

typescript

// ❌ 旧 API(已移除) api.registerEmbeddedExtensionFactory(…)

// ✅ 新 API(必须使用) api.registerAgentToolResultMiddleware(…, } })

影响范围:自定义插件开发者,特别是依赖 Embedded Extension 机制做工具结果转换的插件。升级前请检查所有调用 registerEmbeddedExtensionFactory 的代码。

六、选型矩阵:OpenClaw 中如何选择 DeepSeek V4 变体
使用场景 推荐配置 理由 日常代码审查/文档分析 V4 Flash(默认) \(0.14/M,够用,无需切换 大规模 Agent 批量处理 V4 Flash + thinking 关闭 关闭默认思维链进一步节省成本 复杂架构设计/深度推理 V4 Pro 1.6T 参数,开源最强,思维链深度 等保/数据不出境 V4 Pro 本地部署 MIT 开源,支持华为昇腾,完全隔离 需要最高推理质量 Claude Opus 4.7 Extended thinking,API 稳定可用 中文内容生成 Kimi K2.6 中文原生,星链4SAPI 可统一管理
FAQ

Q1:OpenClaw 换成 DeepSeek V4 Flash 默认后,已有用户受影响吗?
不受影响。“默认模型”仅影响新安装 OpenClaw 的用户在 Onboarding 时的初始选择。已有用户的模型配置保持不变,不会被自动切换。若希望手动切换,在 OpenClaw 中执行 /models set deepseek-v4-flash 或修改 ~/.openclaw/config.yaml 的 models.default 字段即可。



Q2:V4 Flash 和 V4 Pro 在 OpenClaw 中如何切换?定价差距有多大?
两种切换方式:① 会话内 /models set deepseek-v4-flash 或 /models set deepseek-v4-pro;② config.yaml 设置 models.default。定价差距:V4 Flash 输入 0.14/MvsV4Pro输入0.14/MvsV4Pro输入1.74/M,相差约 12 倍;日处理 1 万次 Agent 任务 Flash 约 42/天vsPro约42/天vsPro约522/天。日常任务建议 Flash;复杂推理用 Pro 或 Claude Opus 4.7。



Q3:DeepSeek thinking 回放 Bug 修复前,我的会话出现了 400 错误怎么办?
升级到 v2026.4.24 后,切换模型的 400 错误已在框架层修复,无需手动处理。若升级后仍有问题,尝试 openclaw doctor --fix 修复配置,或新建会话后再切换模型。此前受影响的旧会话可通过 hermes --continue 或 openclaw sessions 恢复历史上下文后重新运行。



Q4:国内如何使用 OpenClaw + DeepSeek V4?
DeepSeek 官方 API(api.deepseek.com)提供国内直连节点,无需境外访问。此外,星链4SAPI 同样支持 DeepSeek V4 Flash 和 V4 Pro,并与 Claude Opus 4.7、Kimi K2.6 共用一个接入密钥,在 OpenClaw 配置中修改 baseUrl 为星链4SAPI 提供的地址即可国内直连调用多款旗舰模型。



Q5:插件 SDK Breaking Change 影响哪些用户?如何迁移?
仅影响自定义插件开发者(不影响普通 OpenClaw 用户)。具体影响:调用了 api.registerEmbeddedExtensionFactory(...) 的插件必须迁移。迁移方法:将所有调用改为 api.registerAgentToolResultMiddleware(...),并在 contracts 中声明 agentToolResultMiddleware.targetedHarnesses(通常填 ["pi", "codex"])。迁移后 transforms 可在 Pi 和 Codex 两个 harness 一致运行。



总结

OpenClaw v2026.4.24 将 DeepSeek V4 Flash 设为默认模型,核心逻辑是:用 \)0.14/M 的成本 + 1M 原生上下文替代此前的闭源高价默认,在不显著牺牲日常 Agent 任务质量的前提下将成本下降约 17–21 倍。同步修复的 DeepSeek thinking 回放 Bug 解决了存量用户切换模型时的 400 报错,Google Meet 内置插件使语音协作能力大幅扩展,浏览器自动化在超时和 Tab 管理上更加稳定。需要更高推理质量时,V4 Pro(内置目录)或 Claude Opus 4.7(通过星链4SAPI 国内直连)均可一行切换。

小讯
上一篇 2026-04-29 23:07
下一篇 2026-04-29 23:05

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/282709.html