2026年AI中的Agent是什么意思?

AI中的Agent是什么意思?Agent 指的是人工智能领域中的一个概念 即智能代理 Intelligent Agent 智能代理是一种能够感知环境 进行决策并执行动作以达成特定目标的软件实体 它们可以自主地操作 无需人类直接干预 能够在复杂的环境中做出合理的规划和反应 这题我会 如果你用过 ChatGPT 或通义千问 你大概体验过这样的对话 今天北京天气怎么样 晴 5 12 C 这属于典型的

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



“Agent”指的是人工智能领域中的一个概念,即智能代理(Intelligent Agent)。智能代理是一种能够感知环境、进行决策并执行动作以达成特定目标的软件实体。它们可以自主地操作,无需人类直接干预,能够在复杂的环境中做出合理的规划和反应。

这题我会!

如果你用过 ChatGPT 或通义千问,你大概体验过这样的对话:

“今天北京天气怎么样?” → “晴,5–12°C。”

这属于典型的 问答型交互——你问它答。AI 被动响应,不主动行动。

Agent(智能体) 的目标是更进一步:不仅能理解你的意图,还能主动执行任务

传统 AI:只回答“你可以去 12306 查”
Agent:直接帮你查车次、选座位、下单、发邮件,全程无需你动手


这就是 Agent 的核心价值:让AI从“信息提供者”变成“任务执行者”

假如你对一个 Agent 说:“帮我订一张明天去杭州的高铁票”,它会这样做

  1. 解析意图:需要订票 + 可能需通知(如发邮件)
  2. 规划行动步骤:
  • 获取当前时间、用户所在城市(如上海)
  • 查询 12306 接口,筛选“上午出发、二等座”车次
  • 选择最优选项(如 G7531,8:15 发车),并向你确认
  • 确认后调用订票接口,生成行程摘要

3. 执行 & 反馈:“已为您预订 G7531 次列车(8:15 上海虹桥 → 9:20 杭州东),并将详细行程发送至您的邮箱 。”

4. 如果余票不足或时间不合适,它还会自动调整策略、重新查询。

这个“目标 → 观察 → 行动 → 环境变化 → 循环”的闭环,就是 Agent 的核心运行逻辑。

关键点:Agent 不是一次性输出答案,而是 在动态环境中不断调整策略,直到任务完成
Agent工作流程示意图

AI Agent 并不是突然冒出来的“黑科技”,它其实走过了一条漫长的演进之路。我们可以用一张时间轴来理清它的成长轨迹:

Agent编年史(潦草手绘版)
时间 里程碑 关键进展
1980s Symbolic Agents(符号智能体) 基于预设的“if-then”规则进行符号推理,像一个逻辑计算器。核心思想:使用逻辑规则和符号表示知识,比如“如果下雨,则带伞”。
1990s Reactive Agents(反应式智能体) 随着机器人和实时系统的兴起,人们意识到 Agent 要能“快速响应环境”。核心思想:直接根据当前感知做出反应。
2000s RL-based Agents(强化学习智能体) 进入千禧年后,得益于强化学习(Reinforcement Learning, RL)的发展,人们让 Agent 通过与环境交互不断试错,学会最优策略。
2020 Transfer & Meta Learning Agents(迁移与元学习智能体) 将迁移学习(Transfer Learning)和元学习(Meta-Learning)应用在Agent中,让 Agent 能从少量样本中快速学会新任务
2023–至今 LLM-based Agents(大语言模型驱动的智能体) 2023 年是 LLM-based Agent 的元年,以 GPT-4、通义千问等大语言模型为大脑,这类 Agent 具备了前所未有的能力。

2023年 -> Function Calling:OpenAI 在 GPT-4 中首次推出的机制,允许 LLM 主动请求调用外部函数(API)。它让 LLM 从“只能说话”变成“能做事”。

2024年 -> MCPs(Model Context Protocol):Anthropic提出MCP协议,为大语言模型(LLM)与外部工具、数据源之间的交互提供一个统一、开放、安全的标准协议

2025年 -> A2A:google提出agent-to-agent协议,让不同公司、不同框架开发的 AI Agent 能够安全、标准化地通信与协作

这些协议的出现标志着Agent 进入“生态建设”阶段,不再单打独斗,而是走向标准化、互联互通和自主协作。

很多人搞不清“工作流(Workflow)”和“Agent”有什么区别,其实它们代表两种完全不同的自动化范式。

一句话记住Workflow 是“你告诉它每一步怎么做”,Agent 是“你告诉它要什么结果,它自己想办法”

比如你的目标是:“整理一份年度报销单。”

Workflow 是预定义的、静态的流程。比如用 Zapier 或 n8n 搭建的自动化工作流:

你得提前画好一张“操作地图”:

  1. 打开邮箱 → 下载所有带“发票”的附件;
  2. 把 PDF 发票拖进 OCR 工具 → 转成 Excel;
  3. 手动核对金额 → 填入公司报销系统模板;
  4. 提交。

但只要哪一步出意外——比如某张发票是手写的、OCR 识别失败,或者邮件标题没写“发票”——整个流程就卡住不动,还得你手动救场。

Agent 是动态的、基于目标驱动的系统。它会根据当前情况决定下一步怎么做。

还是上面的例子,换成 Agent:

Agent 可能这样做:

  1. 扫描你近一年的邮件,智能识别哪些是发票(哪怕标题是“行程单”或“收据”)
  2. 判断格式:PDF?图片?手写?→ 自动选择**解析工具
  3. 遇到模糊发票 → 先尝试 OCR,失败后调用图像增强,再不行就标记出来请你确认
  4. 自动填表、计算总额、检查是否超预算
  5. 最后生成标准报销文件,并提醒你:“法务要求补充高铁订单截图,已附在第3页”

一个完整的 Agent 系统通常包含以下四个模块:

目前绝大多数 Agent 基于多模态大语言模型(如 GPT-4、Claude、通义千问)。

大模型的作用不仅是生成文字,更重要的是:

  • 理解模糊指令(如“整点资料”)
  • 进行多步推理(“如果 A 成立,那么 B 可能…”)
  • 决定是否需要调用工具
比如:很多框架(如 LangChain、LlamaIndex)允许你“注入”系统提示词(system prompt)来引导 LLM 行为,
“你是一个任务规划助手。当用户请求涉及外部操作时,请明确列出所需工具及参数。”

Agent 不会一上来就莽干,它会先“想清楚怎么做”,然后把大任务拆成小步骤

常见规划策略包括:

方法 说明 示例
Chain-of-Thought (CoT) 推理链 “要写周报 → 需要数据 → 数据在哪?→ 查数据库”
Task Decomposition 任务分解 “组织会议” → [查空闲时间, 发邀请, 准备议程]
ReAct(Reason + Act) 边推理边执行 执行一步 → 观察结果 → 决定下一步

没有记忆的 Agent 就像金鱼——聊完就忘。

Agent 的记忆通常分两类:

  • 短期记忆:当前对话上下文(靠 LLM 的上下文窗口维持,比如 32K tokens)
  • 长期记忆:持久化存储,用于跨会话使用

长期记忆的典型实现方式,如:

  • 用向量数据库存储历史交互
  • 结合 RAG(检索增强生成):每次响应前先检索相关记忆

工具就像是 Agent 的“手脚”,Agent 通过工具来执行任务、获取信息或完成操作。

随着生态系统的成熟,工具的使用方式也在不断变得更加标准化:

  • Function Calling(2023年):由 OpenAI 首先提出的 Function Calling 允许大型语言模型(LLM)以结构化的方式调用外部API。这意味着Agent可以通过简单的指令来查询天气、发送邮件或者获取最新新闻等,而不需要了解背后的复杂细节。
  • MCP(2024年):Anthropic 推出的 Model Context Protocol (MCP) 则为工具提供了一种统一的描述格式。借助 MCP,开发者只需对工具进行一次封装,就能在任何支持该协议的平台上轻松部署和使用,大大提高了开发效率。

单个 Agent 能力有限,复杂任务往往需要分工协作,这时候就用到 Multi-Agent System(多智能体系统)

Multi-Agent 系统的核心思想是:将复杂任务拆解为多个子任务,并由具备不同专长的 Agent 协同完成

从实现角度看,Multi-Agent 应用通常分为两个关键部分:

Multi-Agent的两个关键部分

1)Agent 内的逻辑

    • 推理能力(基于 LLM 的思考)
    • 记忆机制(存储上下文和历史)
    • 提示工程(引导行为的规则)
    • 工具调用能力(如 API、数据库、代码执行等)
      → 这些构成了 Agent 的“内部逻辑”,决定了单个专家能做什么、怎么做。

2)Agent 间的通信

    • 产品经理 Agent 发送需求给开发 Agent
    • 开发 Agent 完成后通知测试 Agent
    • 测试 Agent 反馈问题,触发修复流程
      → 这种“对话式协作”让整个系统像一个有机整体运行,而非孤立个体。

简单来说:Multi-Agent 是让 AI 从“一个人做事”进化到“一个团队协作”的关键一步。

随着 AI Agent 技术的爆发式发展,各类框架如雨后春笋般涌现。

笔者结合 截至 2026 年初的 GitHub Star 数业界实际热度,筛选出当前最具代表性的几款Agent框架做一下介绍:

github: github.com/Significant-
论文:AutoGPT 最初是社区驱动项目,无正式学术论文。可参考以下工作:Generative Agents: Interactive Simulacra of Human Behavior (Stanford, 2023)


AutoGPT 是最早引爆“自主 Agent”概念的项目之一,其功能涵盖代理创建模块“Forge”、性能评测基准agbenchmark、排行榜以及易用的UI和CLI接口,凭借“让 LLM 自主上网、写代码、发邮件”的Demo演示迅速走红。

AutoGPT 框架的核心是其 自主循环机制(Autonomous Loop)。它将 LLM 的推理能力与外部工具链结合,形成“思考 → 行动 → 观察 → 反思”的闭环。在这个过程中,模型会自行决定下一步该做什么——是继续搜索信息、编写代码,还是保存结果。这种“无脚本式自主性”在 2023 年初引发了广泛关注。

然而,AutoGPT 也存在明显不足:

  • 缺乏流程控制:任务完全依赖 LLM 自主决策,容易陷入无效循环(如反复搜索相同关键词)或偏离目标;
  • 稳定性差:没有内置容错、重试或状态持久化机制,长时间运行易崩溃;
  • 工具生态有限:原生支持的工具较少,扩展需手动开发;

因此,尽管 AutoGPT 在历史上具有里程碑意义,其历史累计 Star 虽高达 18 万+,但自 2024 年底起活跃度显著下降,核心团队已转向新一代架构(如 AGiXT),原项目更新缓慢。如今,它的许多思想已被 AutoGen、MetaGPT 等更成熟的框架继承并优化——从“自由探索”走向“有纪律的协作”。

github: github.com/langgenius/d
官方文档:https://docs.dify.ai
官方介绍: github.com/langgenius/d





Dify 是一个由 LangGenius 团队开发的低代码 AI 应用构建平台,它强调可视化编排与企业级部署,允许用户通过可视化界面或简单配置,快速搭建基于大语言模型的应用。这个平台的核心优势在于易用性与企业级支持,你无需编写复杂代码,就能完成从 Prompt 设计、知识库接入到部署上线的全流程。

Dify 本质上是一个 Workflow 引擎,AI Agent 仅作为流程中的执行节点。

框架分类一览图

Dify 框架的核心是其 工作流编排能力。你可以将任务拆解为多个步骤(如用户输入 → 意图识别 → RAG 检索 → LLM 生成 → 输出),并通过拖拽方式定义执行顺序。每个节点都可以绑定不同的模型、工具或条件判断,从而构建出结构清晰、可维护的自动化流程。

它的优势在于:通过提供一体化开发环境,简化了 LLM 应用的落地门槛。它不仅支持私有化部署和多模型切换,还能无缝集成企业内部数据源。更重要的是,Dify 将 AI 能力封装为“服务”,让产品经理、运营人员也能参与应用构建——这使得 AI 不再只是工程师的专属工具,而是真正融入业务流程的生产力引擎。 局限在于:缺乏真正的多智能体协作能力,更适合构建问答机器人、知识库助手等确定性任务。

github:https://github.com/langchain-ai/langchain
论文:LangChain: Building Applications with LLMs through Composability
(Harrison Chase et al., arXiv:2308.08155, 2023)





LangChain 是目前拥有 最庞大的 LLM 应用生态的开源框架,涵盖 LangGraph(工作流编排)、LlamaIndex(RAG)、LangServe(部署)等子项目,主仓已超 13 万stars。

LangChain 框架的核心是其 可组合性(Composability)。你可以像搭积木一样,将不同的功能单元(如文档加载器、文本分割器、向量数据库、LLM 接口)串联起来,形成一条完整的处理链(Chain)。例如,在构建一个知识问答系统时,你可以先从 PDF 中提取文本,再将其向量化存入数据库,最后在用户提问时进行语义检索并生成答案。

LangChain另一大贡献是其模块化的工具链生态,通过抽象出通用接口和标准协议,提供 300+ 工具集成(数据库、API、搜索等),极大简化了 RAG 与 Function Calling 的实现。

但需注意:LangChain 本身并非原生多智能体框架,若需 Multi-Agent 能力,需搭配 LangGraph 或 AutoGen 使用。

github:https://github.com/microsoft/autogen
论文:AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation
(Qingyun Wu et al., Microsoft Research, arXiv:2308.08155, 2023)





AutoGen 是一个由 微软推出的框架,它允许开发者定义多个具有不同角色和能力的 Agent(如程序员、产品经理、测试员),并通过自然语言对话机制实现协同。Microsoft提供了详细的安装指南和文档。

AutoGen框架的核心是其代理协同工作的能力。每个代理都有其特定的能力和角色,你需要定义代理之间的互动行为,即当一个代理从另一个代理收到消息时该如何回复。这种方式不仅仅是在定义代理和角色,还在定义它们如何协同工作,从而实现更优的任务完成效果。

典型用例包括:跨部门数据分析、自动化科研实验、复杂客服工单处理等。

github: github.com/OpenBMB/Chat
论文:ChatDev: Communicative Agents for Software Development
(Chen et al., ACL 2024 Findings)





ChatDev是由面壁智能联合清华大学 NLP 实验室于 2023 年 7 月开源的一个垂直领域的多智能体系统,它模拟了一家虚拟软件公司,允许用户仅通过自然语言指令,驱动多个专业角色的智能体协作完成完整软件项目的开发。

让多个智能体分工合作

ChatDev 借鉴软件工程 瀑布模型(Waterfall Model)的思想,将其分为 软件设计(Designing)、系统开发(Coding)、集成测试(Testing)、文档编制(Documenting) 四个主要环节。

之后,通过对软件开发瀑布模型的进一步分解,形成由原子任务构成的交流链(Chat Chain)。整条链可视为由原子任务组成的 “软件生产线”,链中每个子任务通过专业角色(例如产品设计官、Python 程序员、测试工程师等)的智能体进行对话式信息交互和决策——驱动其进行自动化需求分析、头脑风暴、系统开发、集成测试、GUI 创作、文档编制等全流程软件工程。

驱动智能体交流对话的主要机制为:角色专业化(Role Specialization)、记忆流(Memory Stream)、自反思(Self-Reflection):

  • 角色专业化通过角色扮演机制(Role-Playing)确保每个智能体各司其职,在指定的专业角色下完成相应的方案提议和决策讨论。
  • 记忆流通过将历史对话进行呈现,保证上下文感知的对话过程,并动态地对对话历史信息进行汇总和决策。
  • 自反思机制在对话没有自动触发结束协议时生效,通过整轮对话进行文本摘要,摘录出对话过程达成一致后的最终决议。

目前已经覆盖的落地场景有:编程助手(网络爬虫、数据库读写、文件批处理、网页设计),休闲小游戏(五子棋、贪吃蛇、乒乓球游戏)、效率管理工具(代办清单、数字时钟、数学计算器、密码生成器),创作辅助工具(词典、绘画板、图片编辑器)等。

ChatDev 的意义在于: 证明了 Multi-Agent 可在单一垂类中实现端到端交付。

近期也更新了ChatDev 2.0!

ChatDev 2.0已从一个专门的软件开发多智能体系统演变为一个全面的多智能体编排平台。

  • ChatDev 1.0 (经典版)虚拟软件公司模式运行。它通过各种智能体(如 CEO、CTO、程序员)参与专门的功能研讨会,实现整个软件开发生命周期的自动化——包括设计、编码、测试和文档编写。它是沟通型智能体协作的基石范式。
  • ChatDev 2.0 (DevAll) 是一个用于“开发一切”的零代码多智能体平台。它通过简单的配置,赋能用户快速构建并执行定制化的多智能体系统。无需编写代码,用户即可定义智能体、工作流和任务,以编排如数据可视化、3D 生成和深度调研等复杂场景。
github:https://github.com/agentscope-ai/agentscope
论文:AgentScope: A Flexible yet Robust Platform for Building Multi-Agent Applications
(Alibaba Cloud Team, arXiv:2402.14034, 2024)





由阿里云推出的 AgentScope 是面向企业级场景的Multi-Agent框架,主打 鲁棒性、多模态与分布式能力

AgentScope 框架的核心是其 分布式 Actor 架构与中心化调度机制。每个智能体(Agent)作为一个独立的 Actor 运行,拥有自己的状态、工具集和通信通道;同时,系统提供统一的消息总线和任务调度器,确保多个 Agent 能在跨节点环境下高效协同。开发者可以通过简洁的 Python API 定义 Agent 行为,并利用内置的容错重试、超时控制等机制提升系统稳定性。

AgentScope 通过将底层通信、状态管理和执行环境标准化,大幅降低了多智能体系统的开发门槛。无论你是想构建一个能实时响应玩家行为的游戏 NPC 群体,还是搭建一个自动生成短视频的创作流水线,AgentScope 都提供了坚实可靠的运行时基础。更重要的是,它全面兼容 MCP(Model Context Protocol)等新兴工具协议,确保你的智能体能轻松接入未来生态。

当前,AI Agent 正从实验室走向产业一线,逐步渗透到各类应用场景中。正如业内一句调侃所言:“十个 AI 应用里面,五个是办公 Agent,三个是 AIGC,还有两成是回春的数字人。” 这虽略带戏谑,却也真实反映了当前 Agent 落地的主要方向。

整体来看,Agent 的应用可归纳为两大范式:自动化(自主智能体)拟人化(智能体模拟)。前者强调任务执行的自主性与效率,后者则聚焦于交互体验的人格化与情感共鸣。

作为 Agent 技术的重要载体,AIGC 已广泛应用于内容生产链条:从文生文、文生图、图生视频,AIGC工作流,再到多轮对话驱动的AIGC生产助手,Agent 不仅能生成内容,还能根据上下文动态调整策略,实现“有目标的内容创作”。

在企业提效场景中,办公 Agent 正成为新生产力引擎:

  • NL2SQL:自然语言直接生成数据库查询语句,降低数据使用门槛;
  • Copilot 类(如 text2API、text2Code):将开发需求转化为可执行代码,加速软件工程流程;
  • 办公助手:Agent 可自动完成邮件撰写、会议纪要整理、日程协调等重复性事务,真正实现“工作流自动化”。

面向特定行业的垂直 Agent 正在教育、零售、电商、房地产、旅游等领域快速落地。例如,教育 Agent 可根据学生答题行为动态调整教学路径;电商客服 Agent 能结合用户历史偏好推荐商品并处理售后;旅游 Agent 则可一站式规划行程、比价、预订。这些应用不仅依赖大模型的语言能力,更需深度融合行业知识库与业务逻辑。

  • 泛化问题:当前 Agent 多运行于封闭或半结构化环境(如网页、API、数据库),缺乏与物理世界的“具身交互”。一个能浏览网页的 Agent,是否只需更换接口就能操控无人机编队?答案显然是否定的。现实世界的不确定性、延迟反馈与多模态感知,仍是 Agent 泛化的巨大障碍。
  • 交互循环陷阱:为了完成任务,Agent 需要与环境进行大量复杂多步的交互,而一些研究也表明 Agent 很有可能会陷入到无意义的空转中——不断尝试却无法推进任务,不仅浪费计算资源,还产生海量冗余日志,给存储、检索与调试带来新负担。
  • Agent 的评估:如何客观的评估一个 Agent 的能力也将是 AI Agent 发展带给我们的新问题,想想几年前 NLP 时代的数据集刷榜的评估方式,这种传统评价方式必然不适用于一个不断与外部环境打交道的 Agent。此外,一个做对了 99 步但生成答案错误的智能体的能力可能要优于一个做错了 99 步但生成答案正确的智能体,因此 Agent 评价也呼唤除了评估执行任务的成功率以外的新指标、新方法。

读到这里,希望你对当前主流的 AI Agent 概念已经有了一个相对系统的认识。

当然,Agent 技术远未成熟——在落地过程中,依然面临效率、可靠性、评估和安全等多重挑战。但正是这些尚未解决的问题,让这个领域既充满不确定性,也蕴藏着巨大的可能性。

AI Agent入门指南

如果你对相关内容感兴趣,后续我会在 《AI Agent 入门指南》系列专栏 中持续更新,带大家一起深入:

  • AI Agent 入门指南(二):LangChain
  • AI Agent 入门指南(三):Tools——从Function Calling 到 MCP与Skills
  • AI Agent 入门指南(四):Memory 记忆机制综述
  • AI Agent 入门指南(五):低代码平台

声明

  • 所有文章都为本人的学习笔记,非商用,
  • 目的只求在工作学习过程中通过记录,梳理清楚自己的知识体系。
  • 文章或涉及多方引用,如有纰漏忘记列举,请多指正与包涵。

其实没那么复杂,不妨尝试从以下几个方面来理解 Agent:

我们可以抓取一个最精简、也是最核心的公式来帮助理解 Agent:

Agent = LLM + Tools

其核心分工模式如下:

  • LLM 负责思考和调用(决策规划和问题推理)
  • Tools 负责执行和与返回结果 (如搜索、计算、API 调用)
行业巨头们对 Agent 定义的示意图与公式总结

理解 Agent 之前需要先理解 LLM(大语言模型)。

LLM 是无法代替 Agent 的,因为 LLM 本身是无记忆的,专业术语叫 stateless(无状态的)。你可以把模型 LLM 想象成网吧里的电脑,每次用完电脑后重启。一次对话请求处理完成后,LLM 内部恢复初始状态,如此循环。

正是因为 LLM 无状态、擅长处理单次输入输出的特性,非常适合做一问一答,所以其最初的应用形态便是对话机器人(Chatbot)。

Chatbot 交互模式基本就是「AIAI – ….」的交替循环。在这个过程中,人类不断通过提问、追问、澄清来引导 AI,使其输出逐渐符合预期。这个阶段被称为 Human in the Loop(人在循环中)。

随着 LLM 能力的提升,AI 的回答越来越靠谱了,很多环节已不再需要人类的干预。于是,一个革命性的想法诞生了:让 AI 自己与自己「对话」。换言之,让 AI 在执行任务的过程中自我驱动。

由此诞生这种「AIAIAI – ….」的新逻辑,称之为 Human on the loop(人在循环外)。人类只需设定一个初始目标,后续的所有步骤都由 AI 自主循环完成。

这正是 Agent 的关键特征之一:自主循环。

这实现了 “人设定目标 → Agent 自我迭代 → 返回结果” 的闭环。

这里要提到一个常见的误区:大部分应用客户端把上述过程呈现在了同一个对话界面里,让用户误以为只有一次 AI 问答。但实际上,每调用一次工具,AI 需要回答两次。

LLM 本身无记忆(stateless),这就需要依赖人类构建的外部代码,用来维护任务状态与历史上下文。这类代码就叫 Agent 框架,本质是控制 AI 自我循环和维护记忆。

我们把当前的 Agent 框架分为三大类:

三种类型的 Agent 框架速览

(1)手动 Agent 框架

开发者预先设定好任务执行的每一步计划,明确规定哪个步骤使用哪个工具,LLM主要负责在预设节点上填充内容或做简单决策。

我们称之为工作流(Workflow),它是一个白盒系统。

Dify 和 Coze 就是典型的代表,能够提供可视化流程编排工具。此时 Tools 的执行步骤,在很多时候是被人强制执行的,以此换取更多的确定性。
手动 Agent 框架 = LLM + Tools + Workflow

(2)半自动 Agent 框架

将 AI 预设为不同身份的垂直 Agent(系统提示词 + 特定工具),每个垂直 Agent 完成不同的子任务,最后通过框架将每个子任务的执行过程和结果组合起来,完成最终目标。

我们称之为 Multi-Agent System(多 Agent 系统),它是一个灰盒系统。

Manus 和扣子空间的规划模式就是典型的多 Agent 框架。规划和记忆管理都属于编排的一部分。
半自动 Agent 框架 = LLM + Tools + Prompt + Orchestration(编排)

(3)全自动 Agent 框架

只给模型设定一个最终目标,模型接收到目标就开始自我循环,直到完成目标或遇到无法解决的障碍。

全自动 Agent 框架是最简洁的,调用工具的那几行代码,就是其全部的核心了,复杂过程全部交由模型去解决。

我们称之为 Single-Agent System(单 Agent 系统),也就是所谓的通用 Agent,它是一个黑盒系统。

模型自主完成工具调用这个操作,就是全自动 Agent 框架了,如果模型没有 Tool Use 功能,也可以通过代码来实现。
全自动 Agent 框架 = LLM + Tools

这 3 种框架并不是对立关系,而是常常组合使用。比如,Multi-Agent 系统可以与 Workflow 相结合,Single-Agent 系统也是 Workflow 和 Multi-Agent 系统的重要组成部分。


让我们再次回到本文的核心:Agent = LLM + Tools

  • AI 通过调用工具获得了与现实世界交互的能力,再通过交互反馈实现自我循环并完成任务。这就是 Agent 最核心的本质。
  • 控制 AI 自我循环的代码,就是 Agent 框架。

Agent 是一种新的 Scaling Law。

数千年人类发展史,我们个体智力的增长早已趋于平缓,但人类文明整体科技水平却在加速进步。这背后关键的驱动力,正是人类学会了使用工具,学会了大规模协作。

很有可能,我们创造的硅基智慧,正在经历着一模一样的进化历程。

Agent其实就是代理的字面意思,比如你去办签证,你把材料和费用给代理,他们做了什么你不用关心,你只要结果就好。

甚至你家的热水器也是Agent,你给它设定一个温度,它就自己加热把温度维持好,你也不用管它是怎么做到的,啥时候该加热啥时候该停止。

热水器示意图 | 来源:网络

至于说AI中的Agent,一样啦,它也是个Agent,只不过它被AI赋能了,利用AI来做代理的活,它的水平按照能力可以分为五级,其中L4/L5有的时候也会被叫做Agentic AI。

AI Agent的5 Level分级 | 来源:Cobus Greyling
请参考:IT胖熊猫:热点解读——AI Agent是啥❓它能做什么❓
来源:联合早报,中国团队发布号称全球首款通用人工智能智能体产品Manus。 (路透社)

近日爆火的AI Agent Manus, 它在AI基准测试GAIA中取得SOTA(State-of-the-Art)的成绩,性能超越OpenAI同层次大模型。演示案例中,Manus可像人类般筛选简历,自动解压、阅读并生成排名建议及候选人简介等。

虽然赞誉声一片,也有其他声音,例如Manus官方演示的几个功能,此前OpenAI的 Operator,以及智谱AI 的 Phone Use等都已经实机展示。Manus的核心架构与 Anthropic的“ComputerUse”高度相似,均依赖多代理虚拟机环境完成任务。而其所谓的“自主规划”能力,实则是基于现有大语言模型(如GPT-4)的调用,并未展示底层技术的突破。例如,在股票分析案例中,Manus仅通过调用雅虎金融API获取数据,再借助Python脚本生成可视化图表,本质仍是工具链的拼接。可以看到目前关于Manus的讨论基本限于中文互联网,尽管其产品发布使用的是英文而非中文,但极度发达的海外AI社区中对此基本没有关注。

让子弹飞一会。

小讯
上一篇 2026-03-18 17:34
下一篇 2026-03-18 17:32

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/242528.html