Anthropic 发布新工具简化 AI 智能体开发流程

Anthropic 发布新工具简化 AI 智能体开发流程从简单的聊天机器人向自主 AI 智能体 AI Agents 的转变代表了生成式 AI 领域的下一个前沿 虽然大语言模型 LLMs 已经掌握了自然语言理解 但 最难的部分 始终是集成 即将这些 大脑 连接到现实世界的数据 工具和企业系统中 Anthropic 目前正通过一套全新的产品和协议正面解决这一挑战 旨在简化复杂 AI 智能体的创建过程 对于使用 的开发者来说

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



从简单的聊天机器人向自主 AI 智能体 (AI Agents) 的转变代表了生成式 AI 领域的下一个前沿。虽然大语言模型 (LLMs) 已经掌握了自然语言理解,但“最难的部分”始终是集成——即将这些“大脑”连接到现实世界的数据、工具和企业系统中。Anthropic 目前正通过一套全新的产品和协议正面解决这一挑战,旨在简化复杂 AI 智能体的创建过程。对于使用 的开发者来说,这些进步为构建更可靠、更具上下文感知能力的应用程序提供了路线图。

构建 AI 智能体与构建标准的 RAG (检索增强生成) 系统有本质区别。智能体不仅需要检索信息,还必须决定使用哪些工具、如何编排动作序列以及如何从错误中恢复。主要的瓶颈一直在于:

  1. 数据孤岛:LLM 通常无法访问存储在 Google Drive、Slack 或本地数据库等专有系统中的实时数据。
  2. 工具激增:为每个新 API 编写自定义连接器是一场维护噩梦。
  3. 上下文管理:在多步推理循环中保持连贯的状态往往会导致“幻觉”或“死循环”行为。

Anthropic 对 Claude 3.5 Sonnet 的最新更新以及模型上下文协议 (Model Context Protocol, MCP) 的推出直接应对了这些挑战。通过为模型与数据源交互提供标准化方式,Anthropic 正在将重心从“如何连接”转移到“解决什么问题”。开发者可以利用 访问这些高性能模型,并获得实时智能体循环所需的低延迟支持。

模型上下文协议 (MCP) 是一个开源标准,允许开发者在数据和 AI 模型之间构建安全的双向集成。开发者不再需要为每个客户端(IDE、聊天界面、自定义应用)构建独特的集成,而是只需构建一次 MCP 服务器。

  • MCP Hosts (宿主):如 Claude Desktop 或自定义 IDE,负责发起连接。
  • MCP Clients (客户端):LLM 应用程序内部维护协议连接的接口。
  • MCP Servers (服务器):轻量级程序,公开特定功能(例如:搜索数据库、读取文件或查询 GitHub 仓库)。

这种架构确保了 LLM 永远不会直接、不受监控地访问您的基础设施。相反,它通过受控接口进行交互,显著增强了企业安全性——这也是 用户核心关注的优先级。

要构建一个功能完备的智能体,您需要实现一个“推理循环 (Reasoning Loop)”。以下是使用 Anthropic SDK 的概念性 Python 实现,该实现可以轻松适配到 端点以获得更高的可靠性。

import anthropic  # 通过 n1n.ai 初始化客户端以优化路由 client = anthropic.Anthropic(api_key="YOUR_N1N_API_KEY", base_url="https://api.n1n.ai/v1")  def run_agent_step(user_prompt, tools):  response = client.messages.create(  model="claude-3-5-sonnet-",  max_tokens=1024,  tools=tools,  messages=[{"role": "user", "content": user_prompt}]  )   # 检查模型是否需要使用工具  if response.stop_reason == "tool_use":  tool_use = next(block for block in response.content if block.type == "tool_use")  # 在此处执行工具逻辑  # result = execute_tool(tool_use.name, tool_use.input)  return "需要执行工具: " + tool_use.name   return response.content[0].text 

在这个循环中,模型根据可用工具评估 user_prompt。如果此调用的延迟 < 200ms,智能体就会显得反应灵敏。对于生产级智能体,我们建议利用 的高速基础设施,确保复杂任务所需的多次往返不会降低用户体验。

  1. 提示词版本化 (Prompt Versioning):智能体对提示词的变化非常敏感。在部署前,务必对系统提示词进行版本化管理,并针对基准测试集进行测试。
  2. Token 效率优化:谨慎使用“计算机使用 (Computer Use)”功能。处理截图或大型文件差异会消耗大量 Token。通过仅发送最相关的数据来优化上下文。
  3. 错误处理机制:实现“断路器 (Circuit Breaker)”模式。如果智能体在 5 次迭代内无法达成目标,强制介入人工审核。
  4. API 管理策略:使用像 这样的聚合平台来保持高可用性。如果某个区域面临速率限制 (Rate Limit),您的智能体可以在不修改代码的情况下无缝切换到另一个供应商或区域。

Anthropic 对 AI “硬核基础设施”的关注,标志着 AI 正在向更实用、任务驱动的方向转变。企业不再需要一个只会聊天的机器人;他们需要一个能够执行动作的系统。通过标准化 Claude 与世界的交互方式,Anthropic 正在开启一个 AI 智能体可以管理复杂项目流、进行深度研究、甚至在极少人工干预下协助软件工程的未来。

当您开始构建这些自主系统时,API 供应商的稳定性将成为您最关键的基础设施组件。 为 Claude 3.5 Sonnet 及其他领先模型提供健壮、高吞吐量的访问支持,助力下一代 AI 智能体的腾飞。

Get a free API key at

参考来源:https://www.wired.com/story/anthropic-launches-claude-managed-agents/

小讯
上一篇 2026-04-09 14:28
下一篇 2026-04-09 14:26

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/253693.html