Vercel 首席执行官称 AI 智能体推动营收激增并释放 IPO 信号

Vercel 首席执行官称 AI 智能体推动营收激增并释放 IPO 信号软件开发领域正经历着一场翻天覆地的变化 而 Vercel 正处于这场变革的风暴中心 在最近接受 TechCrunch 采访时 Vercel 的创始人兼首席执行官 Guillermo Rauch 明确表示 公司实际上已经做好了 IPO 首次公开募股 的准备 这一表态正值许多传统 SaaS 平台在后 ChatGPT 时代苦苦挣扎 寻求转型之际 对于成立已十年的 Vercel 而言 AI

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



软件开发领域正经历着一场翻天覆地的变化,而 Vercel 正处于这场变革的风暴中心。在最近接受 TechCrunch 采访时,Vercel 的创始人兼首席执行官 Guillermo Rauch 明确表示,公司实际上已经做好了 “IPO(首次公开募股)的准备”。这一表态正值许多传统 SaaS 平台在后 ChatGPT 时代苦苦挣扎、寻求转型之际。对于成立已十年的 Vercel 而言,AI 智能体(AI Agents)和生成式应用的爆发并非挑战,而是一股巨大的顺风,加速了其营收增长和平台普及。

在过去近十年的时间里,Vercel 主要以 Next.js 的母公司而闻名,为开发者提供无缝的前端应用部署体验。然而,随着行业从静态内容转向由 AI 驱动的动态体验,Vercel 的基础设施被证明具有独特的优势,完美契合了 “智能体时代(Agentic Era)”。AI 智能体——即能够自主执行任务、编写代码并与用户交互的程序——对运行环境的性能和低延迟有着极高的要求。

对于许多开发者来说, 在这个环节中扮演了至关重要的角色。虽然 Vercel 提供了托管和边缘计算能力,但开发者仍需要一个可靠、高速的管道来连接底层的超大规模语言模型(LLM)。通过使用 ,开发者能够以极低的延迟访问 DeepSeek-V3、Claude 3.5 Sonnet 等世界顶级模型,这与 Vercel 的边缘部署策略相得益彰。强大的前端平台与 这样高速的 LLM API 聚合器的结合,使得创建响应迅速、体验流畅的 AI 智能体成为可能。

Guillermo Rauch 对 Vercel 准备好 IPO 的信心源于其稳健的财务指标。据报道,该公司的年度经常性收入(ARR)已突破 1 亿美元大关,这是科技公司计划上市的一个传统基准。与 2021 年那种 “不计代价增长” 的模式不同,Vercel 现阶段的轨迹更多由效率和来自企业级 AI 功能的高利润收入所定义。

Rauch 指出,许多在 2022 年之前成立的初创公司发现很难找到自己的 “AI 立足点”。相比之下,Vercel 的核心产品之一 v0.dev 已获得病毒式成功,它允许开发者通过自然语言生成完整的 UI 组件。仅这一工具就显著增加了平台的粘性。当这些生成的应用被部署时,它们自然会依赖 Vercel 的基础设施,从而形成了一个从使用到计费的良性循环。

为了促进这种增长,Vercel 推出了 Vercel AI SDK,这是一套用于构建 AI 驱动用户界面的统一工具包。然而,SDK 的表现很大程度上取决于它所连接的模型。这就是为什么集成 对企业开发者至关重要的原因。

考虑到一个标准的实现场景:开发者需要根据成本或性能要求在不同的 LLM 之间进行切换。与其管理多个 API 密钥和复杂的计费系统,开发者不如直接使用 提供的统一端点。以下是一个在 Vercel 上部署的 AI 智能体如何使用优化后的 LLM 流获取数据的概念示例:

// 在 Vercel Edge Function 中使用 n1n.ai 进行 LLM 推理的示例 import { streamText } from ‘ai’  export const config = { runtime: ‘edge’ }  export default async function handler(req) {  const { prompt } = await req.json()   // 连接到 n1n.ai 以获取高速 API 访问  const response = await fetch(https://api.n1n.ai/v1/chat/completions';, {  method: ’POST‘,  headers: {  Authorization: Bearer ${process.env.N1N_API_KEY},  ’Content-Type‘: ’application/json‘,  },  body: JSON.stringify({  model: ’deepseek-v3‘,  messages: [{ role: ’user‘, content: prompt }],  stream: true,  }),  })   return response } 

在这种架构下,延迟必须保持在 < 100ms 才能保证流畅的用户体验。Vercel 的基础设施确保了函数在靠近用户的地方运行,而 则确保了模型响应的传递不会受到传统供应商网关常见的开销影响。

Vercel 之所以能在其他公司停滞不前时取得成功,主要有三个原因:

  1. “v0” 效应:通过提供能够实际构建产品的 AI 工具(v0.dev),Vercel 成功向上游价值链移动。他们不再仅仅是 “管道” 提供商,而是成为了 “建筑师”。
  2. Next.js 的统治地位:作为最流行的 React 框架,Next.js 拥有庞大的内置受众。当这些开发者想要添加 AI 功能时,Vercel 是阻力最小的选择。
  3. 企业级采用:大型企业正在摆脱单体架构。他们倾向于模块化、可组合的堆栈,可以通过 这种聚合器灵活更换 LLM 供应商,而无需重新架构整个前端。

随着 Vercel 为 2025 年或 2026 年的潜在 IPO 做准备,其核心焦点仍然是 “开发者体验(DX)”。Rauch 强调,目标是让 AI 部署像 git push 一样简单。这种理念引起了新一代 “AI 工程师” 的共鸣,他们优先考虑速度和迭代,而非繁琐的基础设施管理。

对于希望效仿 Vercel 成功的公司来说,信息很明确:专注于开发者工作流,并确保你的后端和前端一样快。利用像 这样的统一 API 平台是一个战略性的举措,它降低了复杂性,让团队能够专注于构建独特的智能体行为,而不是去处理 API 速率限制和模型宕机等琐事。

  • 针对边缘进行优化:始终使用 Vercel Edge Functions 进行 AI 流式传输,以最大限度地减少首个令牌时间(TTFT)。
  • 模型回退机制:利用 设置回退机制。如果某个模型供应商出现高延迟,你的应用可以自动切换到另一个供应商,而无需更改代码结构。
  • 成本管控:密切监控你的 Token 使用情况。高流量的 AI 智能体成本增长极快。使用 提供的具有竞争力的价格体系,有助于在规模扩大时保持健康的利润率。

总之,Vercel 从一个利基部署工具演变为一家做好 IPO 准备的 AI 巨头,为现代科技公司提供了一个蓝图。通过拥抱 AI 智能体革命并提供开发者真正需要的工具,他们已经在下一个计算时代锁定了自己的位置。

Get a free API key at

参考来源:https://techcrunch.com/2026/04/13/vercel-ceo-guillermo-rauch-signals-ipo-readiness-as-ai-agents-fuel-revenue-surge/

小讯
上一篇 2026-04-16 13:39
下一篇 2026-04-16 13:37

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/262599.html