- 在人工智能技术快速发展的当下,其相关技术已成为各行业企业内部技术栈的标配之一,而作为一款主流的企业级Java应用开发框架Spring,也紧跟时代潮流,推出了——
Spring AI框架。

- Spring AI 是 Spring 官方推出的 AI 工程化框架,旨在简化 Java 开发者集成 AI 模型(如 OpenAI、Azure OpenAI 等)的过程。
Spring AI 作为主流的AI大模型应用开发框架之一,它的推出标志着——
Spring框架也正式进入大模型时代。
其提供了开发AI大模型所需的模型API,简化了AI大模型应用的开发工作。
- Spring AI
- URL : https://spring.io/projects/spring-ai
- Slogan : Spring AI 是一个面向人工智能工程的应用框架。它的目标是将 Spring 生态系统的设计原则(例如可移植性和模块化设计)应用于人工智能领域,并推广使用 POJO 作为人工智能领域应用程序的构建模块。
- License : Apache-2.0

Spring AI 提供以下功能:
- 支持所有主流 AI模型提供商,例如 Anthropic、OpenAI、Microsoft、Amazon、Google和Ollama。支持的模型类型包括:
- 聊天结束
- 嵌入
- 文字转图像
- 音频转录
- 文本转语音
- Moderation
- 支持跨 AI 提供商的可移植 API,包括同步 API 和流式 API 选项。同时还提供对特定模型功能的访问。
- 结构化输出- 将 AI 模型输出映射到 POJO。
- 支持所有主要矢量数据库提供商,例如Apache Cassandra、Azure Vector Search、Chroma、Milvus、MongoDB Atlas、Neo4j、Oracle、PostgreSQL/PGVector、PineCone、Qdrant、Redis 和 Weaviate。
- 跨 Vector Store 提供商的可移植 API,包括一种新颖的类似 SQL 的元数据筛选 API。
- 工具/函数调用- 允许模型请求执行客户端工具和函数,从而根据需要访问必要的实时信息。
- 可观测性——提供有关人工智能相关操作的洞察。
- 用于数据工程的文档注入式ETL 框架。
- AI 模型评估- 用于帮助评估生成的内容并防止产生幻觉反应的实用程序。
- ChatClient API - 用于与 AI 聊天模型通信的 Fluent API,其惯用方式与 WebClient 和 RestClient API 类似。
- Advisors API - 封装了重复出现的生成式 AI 模式,转换发送到语言模型 (LLM) 和从语言模型 (LLM) 发送的数据,并提供了跨各种模型和用例的可移植性。
- 支持聊天对话记忆和检索增强生成(RAG)。
- Spring Boot 自动配置和启动器适用于所有 AI 模型和向量存储 - 使用start.spring.io选择所需的模型或向量存储。
此功能集允许您实现常见的用例,例如“
Q&A over your documentation”或“Chat with your documentation.”。

- 最新版:
- v2.0.0-M3 : 2026.3.17
https://github.com/spring-projects/spring-ai/releases/tag/v2.0.0-M3
- v1.1.3 : 2026.3.17
https://github.com/spring-projects/spring-ai/releases/tag/v1.1.3
根据搜索结果,Spring AI 项目的版本演变历程如下。
请注意,所有信息均基于公开的网络资料整理:
- 0.8.1 (2024年3月):这是早期公开记录的一个旧版本,属于项目孵化期的探索性版本。
从2024年中旬开始,Spring AI 进入了快速迭代的里程碑版本发布期,旨在逐步完善核心功能并收集社区反馈。
- 1.0.0-M1 (2024年5月30日):首个公开的里程碑版本,初步确立了项目架构。
- 1.0.0-M2 (2024年7月):继续完善基础功能。
- 1.0.0-M3 (2024年10月8日):增加了对更多模型的支持。
- 1.0.0-M4 (2024年12月):功能进一步丰富。
- 1.0.0-M5 (2025年1月9日):优化了 API 设计。
- 1.0.0-M6 (2025年3月):此版本起,构件开始发布到 Maven Central 仓库,方便了开发者使用。
- 1.0.0-M7 (2025年4月14日):接近正式版的功能冻结。
- 1.0.0-M8 (2025年4月30日):最后一个里程碑版本,主要进行 Bug 修复和文档完善。
- 1.0.0-RC1 (2025年5月13日):发布候选版本,标志着功能已基本稳定,邀请社区进行最后的测试。
- 1.0.0 GA (2025年5月20日):首个正式版本。
- 意义:标志着 Spring AI 正式进入【生产就绪状态】,API 趋于稳定。
- 核心特性:提供了统一的
ChatClient接口,支持 OpenAI、Anthropic、Azure、Google 等【主流模型厂商】;引入了RAG(检索增强生成)基础支持、【对话记忆管理】以及基础的Function Calling能力。 - 环境要求:主要支持 Spring Boot 3.4.x 及 JDK 17+。
- 1.0.x 维护版本 (2025年下半年):
- 在 1.0.0 之后,陆续发布了 1.0.1, 1.0.2, 1.0.3 等补丁版本,主要用于修复 Bug 和小幅改进(截至2025年10月,1.0.3 是当时的最新稳定分支)。
- 1.1.0 GA (2025年11月12日):第二个重大正式版本。
- 背景:距离 1.0 发布仅半年,包含了超过 850 项变更(354个功能增强、241个Bug修复等)。
- 核心升级:
- Agent 框架:引入了更高级的 AI Agent(智能体)构建能力,支持多 Agent 协作。
- MCP (Model Context Protocol):深度集成了 MCP 协议,支持更标准的上下文交互。
- 评估工具:新增了 AI 模型输出的评估(Evaluation)工具。
- 新模型支持:增加了对更多新兴模型(如 DeepSeek 等)的自动配置支持。
- 技术栈:更好地兼容 Spring Framework 6/7 和 Java 21+ 的新特性(如 AOT 编译优化)。
- 主线版本:1.1.x 系列是目前推荐的生产环境使用版本。
- 开发版本:1.2.0-SNAPSHOT 或更高版本可能正在开发中,用于探索更新的 AI 特性。
- 生态扩展:基于 Spring AI 的扩展项目(如 Spring AI Alibaba)也紧随其后发布了相应的 1.0 和 1.1 版本,专门针对阿里云百炼及通义千问模型进行了优化。
总结:Spring AI 从 2024 年初的孵化项目,经过约一年的快速迭代(8个里程碑版本),于 2025 年 5 月达到 1.0 成熟度,并在同年 11 月通过 1.1 版本大幅增强了 Agent 和协议支持能力,目前已发展成为 Java 生态中构建企业级 AI 应用的主流框架。
基于现有的公开资料和网络搜索结果,关于 Spring AI v1.1.3 与 v2.0.0-M3 的区别,
由于 v2.0.0-M3 的具体发布说明(Release Notes)在当前的公开网络资源中尚未有详尽的独立文档(通常里程碑版本的详细变更集中在 M1 和 GA 前的 RC 阶段,且 M3 是一个非常新的版本或特定内部版本),
为此将基于 v1.1.x 系列的最终状态 与 v2.0.0-M1(及后续 2.0 系列已知的重大架构变更) 的核心差异进行对比。
重要提示:
- v1.1.3 是 1.1.x 系列的一个稳定补丁版本(Patch Release),主要包含 Bug 修复和小幅优化。
- v2.0.0-M3 是 2.0 系列的第三个里程碑版本(Milestone),属于非生产就绪的开发版本,其核心特征是破坏性更新(Breaking Changes)和底层架构的重构。
以下是两者的核心区别:
1. 基础运行环境要求(最显著的硬性区别)
这是两个版本之间最大的“分水岭”,直接决定了项目能否启动。
影响:如果你当前的项目运行在 JDK 17 或 Spring Boot 3.x 上,无法直接升级到 v2.0.0-M3,必须同步升级整个技术栈。
2. 核心架构与 API 变更
v2.0 系列不仅仅是功能增加,更是一次架构重构,旨在解决 1.x 中的设计债务并适应 AI 领域的快速变化。
- ChatClient API 的重构:
- v1.1.3: 使用较为初版的
ChatClient接口,虽然支持流式和非流式,但在复杂上下文管理和拦截器链(Advisors)的配置上相对繁琐。 - v2.0.0-M3: 对
ChatClient进行了彻底的重新设计(Reactive-first或更流畅的构建者模式),简化了多轮对话和复杂 Agent 工作流的代码结构。API 包名或方法签名可能发生变动(Breaking Change)。
- v1.1.3: 使用较为初版的
- Model Context Protocol (MCP) 的深度集成:
- v1.1.3: 引入了
MCP的初步支持,允许暴露工具和资源,但配置较为手动。 - v2.0.0-M3:
MCP成为核心一等公民。原生支持MCP Server/Client的自动配置,支持更复杂的工具发现机制和动态资源加载,甚至可能内置了对 MCP 标准更新的即时支持(如 SSE 传输层的优化)。
- v1.1.3: 引入了
- 向量存储 (Vector Store) 的增强:
- v1.1.3: 支持主流向量库(Redis, PGVector, Milvus 等),但部分高级过滤功能(Metadata Filtering)在不同实现间表现不一致。
- v2.0.0-M3: 统一了向量存储的过滤表达式语言(Filter Expression Language),特别是针对 Redis Vector Store 进行了史诗级增强(支持混合搜索、范围查询优化),并可能引入了对新型向量数据库的原生支持。
3. 功能特性的演进
AgentBuilder,支持多 Agent 协作、更智能的状态管理和内置的“反思”机制。
模型支持 支持 OpenAI, Azure, Anthropic, Google, Ollama 等主流厂商。
新增/更新模型适配。默认集成更新的模型 SDK(如 OpenAI Java SDK 最新版),可能原生支持
Claude 3.5/4,
GPT-4o-mini 等新模型的特定功能(如缓存、JSON Mode 优化)。
观察性与评估 基础的 Micrometer 指标和简单的评估接口。
深度可观测性。与 Spring Observability 深度整合,提供针对 LLM Token 消耗、延迟、幻觉率的细粒度追踪;评估框架(Evaluation Harness)更加完善。
RAG 管道 基础的 ETL 和检索流程。
智能 RAG。支持更复杂的预处理管道,自动分块策略优化,以及基于语义的动态检索策略。
4. 稳定性与适用场景
- v1.1.3:
- 定位: 生产就绪 (Production Ready)。
- 适用: 企业级正式项目,需要长期支持(LTS)和稳定 API 的场景。
- 优点: 社区案例多,坑已踩完,文档完善,兼容性好(JDK 17/SB 3.4)。
- v2.0.0-M3:
- 定位: 里程碑测试版 (Milestone)。
- 适用: 技术预研、尝鲜、新功能验证、非核心业务系统。
- 风险: API 随时可能变动,不建议用于生产环境。可能存在未发现的 Bug。
- 优点: 能体验到最新的架构设计、更好的性能(Java 21 虚拟线程支持可能更深入)和未来标准的支持。
总结建议
- 如果你的项目正在运行或即将上线,请坚守 v1.1.3(或等待 1.1.x 的后续补丁)。不要为了新功能而盲目升级到底层依赖完全不同的 2.0 里程碑版本。
- 如果你正在启动一个新项目,且团队有能力处理 JDK 21 和 Spring Boot 4 的迁移成本,并希望利用最新的 AI 架构特性(如更强大的 Agent 和 MCP),可以尝试 v2.0.0-M3,但需做好后续跟随版本迭代修改代码的准备(因为 M3 到 GA 期间 API 仍可能调整)。
注意:由于 v2.0.0-M3 是非常新的里程碑版本,具体的 Bug 修复列表和微小的 API 变动,建议直接查阅 Spring AI 官方 GitHub 仓库的
release-notes或CHANGELOG文件以获取最准确的逐行对比。
- Java 基础
- 常用的技术框架: Spring Boot 等
- 常用的数据库: MySQL 等
- 在开始编码前,请确保具备以下条件:
- OpenAI API Key:在 OpenAI 官网 获取令牌。
或 注册兼容OpenAI的第三方厂商: 硅基流动 / …
- [AI/GPT] 硅基流动(SiliconFlow) : AI大模型时代的基础设施(Model API as Service) - 博客园/千千寰宇
- https://account.siliconflow.cn/
- Java 环境:JDK 17 或更高版本。例如: OpenJDK 17.0.2
- 项目构建工具:Maven 或 Gradle。例如: Maven
- 使用 Spring Initializr 快速创建项目,并添加以下依赖:
- Spring Web:用于构建 Web 接口。例如: Spring Web
- OpenAI:Spring AI 的 OpenAI Starter。


Maven 核心依赖配置示例:
GPT plus 代充 只需 145
org.springframework.ai
spring-ai-starter-model-openai
- 在
application.yaml或application.properties中配置你的API Key。如果在中国国内使用,通常需要配置代理地址
spring: ai:
GPT plus 代充 只需 145openai: api-key: ${OPENAI_API_KEY} # base-url: https://api.openai-proxy.com # 如需使用代理,请在此配置

- 注入
ChatModel(或旧版本中的ChatClient)来调用OpenAI接口。
@RestController public class ChatController {
GPT plus 代充 只需 145private final ChatModel chatModel; @Autowired public ChatController(ChatModel chatModel) { this.chatModel = chatModel; } @GetMapping("/ai/generate") public String generate(@RequestParam(value = "message") String message) { return chatModel.call(message); }
}

com.johnnyzen.spring_ai_examples.SpringAiExamplesApplication

- 调用接口
curl -X GET http://127.0.0.1:8080/spring-ai/what-is-the-meaning-of-life
curl -X GET http://127.0.0.1:8080/spring-ai/what-is-the-meaning-of-life?language=en

GPT plus 代充 只需 145//message=“总结最近一周的AI Agent前沿进展” curl -X GET http://127.0.0.1:8080/spring-ai/ai/generate?message=%e6%80%bb%e7%bb%93%e6%9c%80%e8%bf%91%e4%b8%80%e5%91%a8%e7%9a%84AI+Agent%e5%89%8d%e6%b2%bf%e8%bf%9b%e5%b1%95
- URL 编码/解码 - www.toolhelper.cn
Chat Model API为开发人员提供了将AI驱动的聊天功能集成到其应用程序中的能力。它利用预训练的语言模型,如 GPT(生成式预训练转换器),以自然语言生成对用户输入的人类般响应。- 大模型平台(如:阿里百炼/DashScope)API 通过向
AI模型发送提示或部分对话来工作,然后 AI 模型基于其训练数据和对自然语言模式的理解生成完成或对话的延续。完成的响应随后返回给应用程序,应用程序可以将其呈现给用户或用于进一步处理。 Spring AI Chat Model API设计为一个简单且可移植的接口,用于与各种 AI 模型交互,允许开发人员以最小的代码更改在不同模型之间切换。这种设计与 Spring 的模块化和可互换性理念保持一致。- 同时,借助
Prompt用于输入封装和ChatResponse用于输出处理的配套类,Chat Model API统一了与 AI 模型的通信。它管理请求准备和响应解析的复杂性,提供直接和简化的 API 交互。
注:您可以在 (百炼) Model 集成 部分找到更多关于模型集成实现的信息。
org.springframework.ai.chat.model.ChatModel 接口定义
- 以
org.springframework.ai:spring-ai-model:1.1.3源码为例
https://github.com/spring-projects/spring-ai/tree/v1.1.3/spring-ai-model/src/
- ChatModel : https://github.com/spring-projects/spring-ai/blob/v1.1.3/spring-ai-model/src/main/java/org/springframework/ai/chat/model/ChatModel.java
- Model : https://github.com/spring-projects/spring-ai/blob/v1.1.3/spring-ai-model/src/main/java/org/springframework/ai/model/Model.java
package org.springframework.ai.chat.model;
import java.util.Arrays; import org.springframework.ai.chat.messages.Message; import org.springframework.ai.chat.messages.UserMessage; import org.springframework.ai.chat.prompt.ChatOptions; import org.springframework.ai.chat.prompt.Prompt; import org.springframework.ai.model.Model; import reactor.core.publisher.Flux;
public interface ChatModel extends Model
GPT plus 代充 只需 145default String call(Message... messages) ChatResponse call(Prompt prompt); default ChatOptions getDefaultOptions() { return ChatOptions.builder().build(); } default Flux
stream(Prompt prompt) { throw new UnsupportedOperationException("streaming is not supported");//不支持流式响应 }
}
带
String参数的call()方法简化了初始使用,避免了更复杂的Prompt和ChatResponse类的复杂性。在实际应用程序中,更常见的是使用接受Prompt实例并返回ChatResponse的call()方法。
org.springframework.ai.model.Model
- Model
/*
- Copyright 2023-present the original author or authors. *
- Licensed under the Apache License, Version 2.0 (the “License”);
- you may not use this file except in compliance with the License.
- You may obtain a copy of the License at *
- https://www.apache.org/licenses/LICENSE-2.0 *
- Unless required by applicable law or agreed to in writing, software
- distributed under the License is distributed on an “AS IS” BASIS,
- WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
- See the License for the specific language governing permissions and
- limitations under the License. */
package org.springframework.ai.model;
/
- The Model interface provides a generic API for invoking AI models. It is designed to //模型接口提供了一个用于调用 AI 模型的通用 API。它的设计目的是
- handle the interaction with various types of AI models by abstracting the process of //通过抽象化以下过程来处理与各种类型人工智能模型的交互:
- sending requests and receiving responses. The interface uses Java generics to //发送请求和接收响应。该接口使用 Java 泛型。
- accommodate different types of requests and responses, enhancing flexibility and //适应不同类型的请求和响应,增强灵活性和
- adaptability across different AI model implementations. //适应不同人工智能模型实现方式的能力。 *
- @param
the generic type of the request to the AI model //向 AI 模型发出的请求的通用类型 - @param
the generic type of the response from the AI model //AI 模型响应的通用类型 - @author Mark Pollack
- @since 0.8.0 */ // public interface Model
, TRes extends ModelResponse > { /
- Executes a method call to the AI model. //向 AI 模型执行方法调用。
- @param request the request object to be sent to the AI model //要发送给 AI 模型的请求对象
- @return the response from the AI model //AI模型的响应 */ TRes call(TReq request);
}
org.springframework.ai.chat.model.StreamingChatModel 接口定义
- 以”为例分析源码:
- StreamingChatModel : https://github.com/spring-projects/spring-ai/blob/v1.1.3/spring-ai-model/src/main/java/org/springframework/ai/chat/model/StreamingChatModel.java
- StreamingModel : https://github.com/spring-projects/spring-ai/blob/v1.1.3/spring-ai-model/src/main/java/org/springframework/ai/model/StreamingModel.java
GPT plus 代充 只需 145package org.springframework.ai.chat.model;
import java.util.Arrays; import java.util.Optional; import org.springframework.ai.chat.messages.AbstractMessage; import org.springframework.ai.chat.messages.Message; import org.springframework.ai.chat.prompt.Prompt; import org.springframework.ai.model.StreamingModel; import reactor.core.publisher.Flux;
@FunctionalInterface public interface StreamingChatModel extends StreamingModel
default Flux
stream(Message... messages) Flux
stream(Prompt prompt);
}
stream()`流式传输响应。方法接受类似于 ChatModel 的 String 或Prompt参数,但它使用响应式Flux API
org.springframework.ai.chat.prompt.Prompt 接口定义
- Prompt
Prompt是一个ModelRequest,它封装了一个Message对象列表和可选的模型请求选项。以下列表显示了Prompt类的截断版本,不包括构造函数和其他实用方法:
Prompt : https://github.com/spring-projects/spring-ai/tree/v1.1.3/spring-ai-model/src/main/java/org/springframework/ai/chat/prompt/Prompt.java
GPT plus 代充 只需 145package org.springframework.ai.chat.prompt;
import java.util.ArrayList; import java.util.Arrays; import java.util.Collections; import java.util.HashMap; import java.util.List; import java.util.Objects; import java.util.function.Function; import org.springframework.ai.chat.messages.AssistantMessage; import org.springframework.ai.chat.messages.Message; import org.springframework.ai.chat.messages.SystemMessage; import org.springframework.ai.chat.messages.ToolResponseMessage; import org.springframework.ai.chat.messages.UserMessage; import org.springframework.ai.model.ModelRequest; import org.springframework.lang.Nullable; import org.springframework.util.Assert; import org.springframework.util.CollectionUtils; import org.springframework.util.StringUtils;
public class Prompt implements ModelRequest
> {
private final List
messages; @Nullable private ChatOptions chatOptions; public Prompt(String contents) { this((Message)(new UserMessage(contents))); } public Prompt(Message message) { this(Collections.singletonList(message)); } public Prompt(List
messages) { this((List)messages, (ChatOptions)null); } public Prompt(Message... messages) { this((List)Arrays.asList(messages), (ChatOptions)null); } public Prompt(String contents, @Nullable ChatOptions chatOptions) { this((Message)(new UserMessage(contents)), chatOptions); } public Prompt(Message message, @Nullable ChatOptions chatOptions) { this(Collections.singletonList(message), chatOptions); } public Prompt(List
messages, @Nullable ChatOptions chatOptions) { Assert.notNull(messages, "messages cannot be null"); Assert.noNullElements(messages, "messages cannot contain null elements"); this.messages = messages; this.chatOptions = chatOptions; } public String getContents() return sb.toString(); } @Nullable public ChatOptions getOptions() { return this.chatOptions; } public List
getInstructions() { return this.messages; } public SystemMessage getSystemMessage() } return new SystemMessage(""); } public UserMessage getUserMessage() } return new UserMessage(""); } public Message getLastUserOrToolResponseMessage() } return new UserMessage(""); } public List
getSystemMessages() } return systemMessages; } public List
getUserMessages() } return userMessages; } public String toString() { String var10000 = String.valueOf(this.messages); return "Prompt{messages=" + var10000 + ", modelOptions=" + String.valueOf(this.chatOptions) + "}"; } public boolean equals(Object o) else if (!(o instanceof Prompt)) { return false; } else { Prompt prompt = (Prompt)o; return Objects.equals(this.messages, prompt.messages) && Objects.equals(this.chatOptions, prompt.chatOptions); } } public int hashCode() { return Objects.hash(new Object[]{this.messages, this.chatOptions}); } public Prompt copy() { return new Prompt(this.instructionsCopy(), null == this.chatOptions ? null : this.chatOptions.copy()); } private List
instructionsCopy() else if (message instanceof SystemMessage systemMessage) { messagesCopy.add(systemMessage.copy()); } else if (message instanceof AssistantMessage assistantMessage) else ToolResponseMessage toolResponseMessage = (ToolResponseMessage)message; messagesCopy.add(ToolResponseMessage.builder().responses(new ArrayList(toolResponseMessage.getResponses())).metadata(new HashMap(toolResponseMessage.getMetadata())).build()); } }); return messagesCopy; } public Prompt augmentSystemMessage(Function
systemMessageAugmenter) } if (!found) { messagesCopy.add(0, (Message)systemMessageAugmenter.apply(new SystemMessage(""))); } return new Prompt(messagesCopy, null == this.chatOptions ? null : this.chatOptions.copy()); } public Prompt augmentSystemMessage(String newSystemText) { return this.augmentSystemMessage((Function)((systemMessage) -> systemMessage.mutate().text(newSystemText).build())); } public Prompt augmentUserMessage(Function
userMessageAugmenter) if (i == 0) { messagesCopy.add((Message)userMessageAugmenter.apply(new UserMessage(""))); } } return new Prompt(messagesCopy, null == this.chatOptions ? null : this.chatOptions.copy()); } public Prompt augmentUserMessage(String newUserText) { return this.augmentUserMessage((Function)((userMessage) -> userMessage.mutate().text(newUserText).build())); } public Builder mutate() return builder; } public static Builder builder() { return new Builder(); } public static final class Builder { @Nullable private String content; @Nullable private List
messages; @Nullable private ChatOptions chatOptions; public Builder content(@Nullable String content) { this.content = content; return this; } public Builder messages(Message... messages) return this; } public Builder messages(List
messages) { this.messages = messages; return this; } public Builder chatOptions(ChatOptions chatOptions) { this.chatOptions = chatOptions; return this; } public Prompt build() else return new Prompt(this.messages, this.chatOptions); } } }
}
org.springframework.ai.chat.messages.Message 接口定义
- Message
GPT plus 代充 只需 145package org.springframework.ai.chat.messages;
import org.springframework.ai.content.Content;
public interface Message extends Content
Content
- Content
package org.springframework.ai.content.Content;
public interface Content
MediaContent
- MediaContent
多模态消息类型还实现了 MediaContent 接口,提供 Media 内容对象列表。
GPT plus 代充 只需 145public interface MediaContent extends Content
MessageType
- MessageType
org.springframework.ai.chat.messages.MessageType
这是 Spring AI 聊天模块的基础类型,通过字符串构造函数将枚举常量映射为对应的字符串值,便于序列化和传输
package org.springframework.ai.chat.messages;
public enum MessageType {
GPT plus 代充 只需 145USER("user"),//用户发送的消息 ASSISTANT("assistant"),//AI 助手回复的消息 SYSTEM("system"),//系统指令消息(用于设定对话上下文) TOOL("tool");//工具调用相关的消息 private final String value; private MessageType(String value) { this.value = value; } public static MessageType fromValue(String value) } throw new IllegalArgumentException("Invalid MessageType value: " + value); } public String getValue() { return this.value; }
}
Spring AI Message API

聊天完成端点根据对话角**分消息类别,有效地由 MessageType 映射。
例如,OpenAI 识别不同对话角色的消息类别,如 system、user、function 或 assistant。
虽然术语 MessageType 可能暗示特定的消息格式,但在这种情况下,它实际上指定了消息在对话中扮演的角色。
对于不使用特定角色的 AI 模型,UserMessage 实现作为标准类别,通常表示用户生成的查询或指令。要了解 Prompt 和 Message 的实际应用和关系,特别是在这些角色或消息类别的上下文中,请参阅提示部分中的详细解释。
Chat Options
- Chat Options
org.springframework.ai.chat.prompt.ChatOptions
表示可以传递给 AI 模型的选项。ChatOptions 类是 ModelOptions 的子类,用于定义可以传递给 AI 模型的几个便携选项。ChatOptions 类定义如下
public interface ChatOptions extends ModelOptions
- 此外,每个特定于模型的 ChatModel/StreamingChatModel 实现都可以有自己的选项,可以传递给 AI 模型。例如,OpenAI Chat Completion 模型有自己的选项,如
logitBias、seed和user。
这是一个强大的功能,允许开发人员在启动应用程序时使用特定于模型的选项,然后使用
Prompt请求在运行时覆盖它们。
- Spring AI 提供了一个复杂的系统来配置和使用聊天模型。它允许在启动时设置默认配置,同时还提供了在每次请求的基础上覆盖这些设置的灵活性。这种方法使开发人员能够轻松地使用不同的 AI 模型并根据需要调整参数,所有这些都在 Spring AI 框架提供的一致接口内。
以下是 Spring AI 处理聊天模型配置和执行的流程:

- 启动配置:ChatModel/StreamingChatModel 使用”启动”聊天选项初始化。这些选项在 ChatModel 初始化期间设置,旨在提供默认配置。
- 运行时配置:对于每个请求,Prompt 可以包含运行时聊天选项:这些可以覆盖启动选项。
- 选项合并过程:”合并选项”步骤结合了启动和运行时选项。如果提供了运行时选项,它们优先于启动选项。
- 输入处理:”转换输入”步骤将输入指令转换为本机、特定于模型的格式。
- 输出处理:”转换输出”步骤将模型的响应转换为标准化的
ChatResponse格式。
启动和运行时选项的分离允许全局配置和请求特定的调整。
ChatResponse
- ChatResponse
org.springframework.ai.chat.model.ChatResponse
GPT plus 代充 只需 145public class ChatResponse implements ModelResponse
@Override public List
getResults() {...} // other methods omitted
}
ChatResponse类保存 AI 模型的输出,每个Generation实例包含来自单个提示的潜在多个输出之一。ChatResponse类还携带有关 AI 模型响应的ChatResponseMetadata元数据。
Generation
- Generation
org.springframework.ai.chat.model.Generation
Generation 类从 ModelResult 扩展,表示模型输出(助手消息)和相关元数据:
GPT plus 代充 只需 145public class Generation implements ModelResult
@Override public ChatGenerationMetadata getMetadata() {...} // other methods omitted
}
此图说明了统一的接口 ChatModel 和 StreamingChatModel 用于与来自不同提供商的各种 AI 聊天模型交互,允许轻松集成和在不同 AI 服务之间切换,同时为客户端应用程序维护一致的 API。

- 可用的聊天模型实现包括:
- OpenAI 聊天完成(支持流式传输、多模态和函数调用)
- Microsoft Azure Open AI 聊天完成(支持流式传输和函数调用)
- Ollama 聊天完成(支持流式传输、多模态和函数调用)
- Hugging Face 聊天完成(不支持流式传输)
- Google Vertex AI Gemini 聊天完成(支持流式传输、多模态和函数调用)
- Amazon Bedrock
- Mistral AI 聊天完成(支持流式传输和函数调用)
- Anthropic 聊天完成(支持流式传输和函数调用)
提示:在聊天模型比较部分找到可用聊天模型的详细比较。
- Spring AI Chat Model API 构建在 Spring AI Generic Model API 之上,提供聊天特定的抽象和实现。这允许轻松集成和在不同 AI 服务之间切换,同时为客户端应用程序维护一致的 API。

- ChatClient 提供了一个流畅的 API 用于与 AI 模型进行通信。它同时支持同步和流式编程模型。
ChatClient API提供了构建 Prompt 各个组成部分的方法,这些 Prompt 将作为输入传递给 AI 模型。
ChatClient是使用ChatClient.Builder对象创建的。ChatBuilder 中需要传入一个 ChatModel,您可以集成相关的 Spring Boot Starter 或者使用编程方式自动创建一个 ChatModel 传入。

ChatClient是基于构造函数中传入的ChatModel创建的。
使用自动配置的 ChatClient.Builder
- 在最简单的用例中,Spring AI 提供了 Spring Boot Starter,为您创建一个原型
ChatClient.Builderbean,您可以将其注入到您的类中。以下是一个简单的示例,展示如何获取对简单用户请求的String响应:
GPT plus 代充 只需 145@RestController class MyController {
private final ChatClient chatClient; public MyController (ChatClient.Builder chatClientBuilder) { this.chatClient = chatClientBuilder.build(); } @GetMapping("/ai") String generation (String userInput) { return this.chatClient.prompt() .user(userInput) .call() .content(); }
}
在这个简单的示例中,用户输入设置了用户消息的内容。
call()` 方法向 AI 模型发送请求,content() 方法返回 AI 模型的响应作为 String。
- Spring AI
- https://spring.io/projects/spring-ai
- https://docs.spring.io/spring-ai/reference/index.html
- https://github.com/spring-projects/spring-ai
- 学习资源
- 中文文档: Spring AI 参考指南 - Spring 中文网
- 视频教程: 尚硅谷 Spring AI 实战教程 - Bilibili
- 开源案例: Spring AI 中文教程 GitHub 仓库 - Github/NingNing0111/spring-ai-zh-tutorial](https://github.com/NingNing0111/spring-ai-zh-tutorial)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/246528.html