最近刷到一个宝藏网站,叫 Learn Claude Code。名字看着挺像学习使用 Claude Code 的指南,但实际并不是,而是教你从 0 到 1 构建 nano Claude Code-like agent,每次只加一个机制。
网站链接我也再贴一遍:https://learn.shareai.run/zh/
而且网站开头就直白表示:所有 AI 编程 Agent 共享同一个循环:调用模型、执行工具、回传结果。生产级系统会在其上叠加策略、权限和生命周期层。

while True: response = client.messages.create(messages=messages, tools=tools) if response.stop_reason != "tool_use": break for tool_call in response.content: result = execute_tool(tool_call.name, tool_call.input) messages.append(result)
这段代码人工翻译一下就是:
- 调模型(给指令)
- 执行工具(读写文件、跑命令)
- 回传结果(告诉模型干了啥)
- 继续迭代(直到任务干完)
就这?就这。剩下的全是围绕这个循环的各种优化和补丁。
用 Java 来写,核心循环大概是这样:
while (true) for (ToolCall toolCall : response.getContent()) }
正是考虑到我们的读者多数是Java同学,因此我决定用Java来和大家一块学习下
网站将这 12 个阶段(s01-s12)归纳为五个核心能力的进阶,看看一个成熟的 Agent 系统是如何一步步被做出来的:

最小可用的 Agent 内核仅仅需要:一个 while 循环 + 一个工具。
说白了就是Agent 最本质的“大脑-手脚”循环
public class AgentLoop // 4. 执行工具 List
这段代码包含了所有 AI Agent 的灵魂。
代码中的 while 循环是 Agent 的心脏。它的逻辑是:
- 思考: 问 LLM "该做什么?"
- 行动: 如果 LLM 说要调工具(比如写代码、运行命令),代码就去执行这个工具
- 观察: 把工具执行的结果(输出、报错)再次告诉 LLM。
- 循环: LLM 根据结果决定是继续干,还是说“搞定了”。
while (true) // 3. 执行工具 List
> toolResults = executeTools(response); // 4. 将结果返回给 LLM messages.add(createUserTurn(toolResults)); }
messages 列表。它不仅仅是聊天记录,它是 Agent 的短期记忆。
- 每次循环,我们都要把新的对话(无论是人的指令,还是工具的执行结果)
append进去。 - 如果不把工具结果放回去,LLM 就不知道自己刚才执行的命令成功了没有,也就无法进行下一步。
在 代码的 TOOLS 变量里,我们会定义了工具长什么样(名字、参数)。
// 遍历响应中的工具调用块 for (Map
block : content) }
关键点: LLM 不会真的“运行”代码,它只是输出一个符合这个格式的 JSON(比如 {"name": "bash", "arguments": {"command": "ls"}})。而代码才是负责解析这个 JSON 并真的去执行 Runtime.exec()。
代码里的 run_bash 函数不仅仅是执行命令,它还充当了防火墙。
private static String runBash(String command)
// 带超时的命令执行 if (!p.waitFor(120, TimeUnit.SECONDS)) { p.destroyForcibly(); return "Error: Timeout (120s)"; } // 限制输出长度 return result.substring(0, Math.min(result.length(), 50000));
}
重要: 永远不要让 LLM 直接拥有无限制的 Shell 权限。虽然这里的检查很简单(黑名单),但在生产环境中,可能会需要沙箱环境(Docker)来运行这些命令。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/255707.html