2026年Anthropic上线Claude Managed Agents公测版:从原型到发布可在几天内完成

Anthropic上线Claude Managed Agents公测版:从原型到发布可在几天内完成说实话 看到这个数据我有点意外 开发者 JeecgBoot 在 Mac Studio M4Max 环境下实测 用 Claude Code 对接社区魔改版 Gemma 4 生成速度达到了 78tok s 对比官方原版的十几 token 这是 5 6 倍的提升 这不是简单的优化 这是 换模型 带来的质变 在本次测试中 开发者弃用了体验欠佳的官方原版

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



说实话,看到这个数据我有点意外。开发者JeecgBoot在Mac Studio M4Max环境下实测,用Claude Code对接社区魔改版Gemma 4,生成速度达到了78tok/s。对比官方原版的十几token,这是5~6倍的提升

这不是简单的优化,这是”换模型”带来的质变。

Claude Code

在本次测试中,开发者弃用了体验欠佳的官方原版,转而采用社区魔改模型gemma-4-26b-a4b-it-claude-opus-heretic-ara。这个名字看着有点魔幻,但数据表现确实惊艳:

  • 极致速度:生成速度高达78tok/s,相比原版的十几token提升显著
  • 稀疏激活:采用A4B(Active4B)MoE架构,总参数26B但每次推理仅激活约4B参数
  • 超长上下文:支持256K上下文,完美兼容Anthropic API格式,实现零配置对接

这里的关键是A4B MoE架构。26B的总参数,但每次推理只激活4B——这意味着你用4B的算力成本,获得了26B的智能水平。这就是"小参数算力、大参数智能"的实现方式。

Claude Code

官方原版和社区魔改版的差距,本质上是模型架构和优化策略的差距

官方版可能更注重通用性和稳定性,但牺牲了推理速度。而社区魔改版针对特定场景做了极致优化——比如Claude Code的Agent工作流、Mac M系列芯片的硬件特性、Anthropic API的调用模式。

这让我想到一个问题:为什么官方不做这些优化?可能的原因有几个:一是官方要照顾更多场景,不能只针对某一类用户优化;二是官方可能有其他产品策略考虑,比如云端API的优先级;三是社区的创新速度本来就比官方快,这是开源生态的优势。

实测显示,尽管模型生成极快,但在执行具体任务(如生成教师表代码)时,总耗时仍需约1.5分钟。为什么?

瓶颈不在模型生成速度,而在Claude Code的多步Agentic决策链。系统在执行前会进行多轮Thought(思考)和Skill加载,导致Prompt Token膨胀。

这揭示了一个重要问题:Agent的"聪明"是有代价的。每一步决策、每一次工具调用、每一个中间思考,都会消耗时间。对于代码生成和修改类任务,这种多步决策很有价值——能确保路径规范和逻辑闭环。但对于简单的知识问答,这种决策链就是浪费。

所以,开发者建议:简单问答直接用LM Studio对话,复杂任务才用Claude Code。这是对工具特性的精准理解。

在针对JeecgBoot框架的实测中,该组合展现了极高的实战水准:

  • 规范性:SQL路径自动符合Flyway规范,日期生成准确
  • 技术栈:Vue3采用script setup + TS写法,完全符合现代开发标准
  • 完整性:生成了包括Controller、Service、Mapper在内的全套骨架
  • 不足:复杂方法体仍需人工补充,关键逻辑建议进行人工复核

这个评价很客观。骨架代码生成得很好,但复杂逻辑还是需要人工介入。这符合我对AI编程助手的预期:它能大幅提升效率,但不能完全替代人工

基于实测数据,开发者提出了一套兼顾隐私、成本与质量的最优策略:

  • 本地魔改模型(80%场景):处理日常CRUD生成、代码解释及隐私敏感的内部项目,享受零成本与数据不出内网的安全性
  • 云端官方API(20%场景):应对复杂架构设计、核心安全模块等高难度任务,确保生产级质量

这个策略很聪明。不是二选一,而是根据任务特性选择最合适的工具。本地模型处理大量日常任务,省钱又安全;云端模型处理关键任务,确保质量。这是务实主义。

随着M4Max等强力硬件的普及,配合Q4_K_XL量化技术,本地运行高性能Agent已不再是科幻。

我觉得这个趋势会加速。原因有几个:

  1. 隐私需求:很多企业不愿意把代码传到云端
  2. 成本考虑:云端API按token收费,高频使用成本很高
  3. 硬件进步:M系列芯片、NVIDIA 4090等硬件让本地推理成为可能
  4. 社区创新:魔改版、蒸馏版、量化版层出不穷,性能越来越强

未来,"本地为主、云端为辅"可能成为很多开发者的默认选择

Claude Code配魔改版Gemma 4,在Mac Studio M4Max上跑出78tok/s,这是本地AI开发的一次重要验证。选对模型比调优更重要,双模型”高低配”策略兼顾了隐私、成本和质量。随着硬件进步和社区创新,本地化AI开发正在从”科幻”变成”常态”。


AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。

想了解AITOP100平台其它版块的内容,请点击下方超链接查看

AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说

AITOP100平台官方交流社群二维码:

AITOP100平台官方交流社群二维码二维码

小讯
上一篇 2026-04-16 08:19
下一篇 2026-04-16 08:17

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/263170.html