LangChain 让您轻松构建完全自定义的智能体和基于 LLM 的应用程序。只需不到 10 行代码,即可连接到千问、DeepSeek、Kimi、 OpenAI、Anthropic、Google 等平台 LangChain 提供预构建的智能体架构和模型集成,帮助您快速上手,并将 LLM 无缝集成到您的智能体和应用程序中。当前最新的版本是 V1.2.13。
LangChain 是使用 TypeScript 编写的,可以在以下环境中使用:
- Node.js (ESM 和 CommonJS) - 18.x, 19.x, 20.x
- 明确不保证支持: Node.js 16,如果仍旧希望在 16版本运行,也可以参考官方文档安装
要开始使用 LangChain,请使用以下命令安装:
安装完毕后使用以下命令查看安装版本:
GPT plus 代充 只需 145
如果是LangChain的0.0.52之前的版本,需要更新导入以使用新的路径结构,如果你的是新版本则忽略。如果你参考的是之前老版本的教程,可能这些导包路径在之后的版本中更新了,新版导包参考如下:
适用于下列6个模块的所有导入,这些模块已分割为每个集成的子模块。组合模块已被弃用,在 Node.js 之外不起作用,并将在将来的版本中删除。
- 如果您使用的是 ,请参见 LLMs 以获取更新后的导入路径。
- 如果您使用的是 ,请参见 Chat Models 以获取更新后的导入路径。
- 如果您使用的是 ,请参见 Embeddings 以获取更新后的导入路径。
- 如果您使用的是 ,请参见 Vector Stores 以获取更新后的导入路径。
- 如果您使用的是 ,请参见 Document Loaders 以获取更新后的导入路径。
- 如果您使用的是 ,请参见 Retrievers 以获取更新后的导入路径。
其他模块不受此更改影响,您可以继续从同一路径导入它们。
此外,还有一些模块也需要进行重大更改:
- 现已移至
- 现已移至
- 现已移至
- 现已移至
- 现已移至
LangChain 提供与数百个 LLM 和其他数千个集成的集成。这些集成以独立提供商软件包的形式存在。一般大模型厂商都兼容 openai 的接口规范。
GPT plus 代充 只需 145
目前为止,我们搞定了环境,接下来创建一个聊天模型快速上手!
本节介绍如何使用聊天模型入门。首先我们选择一个开放大模型,国内可以选择千问,DeepSeek 、智谱或者 Kimi的大模型 API 接口。通过访问相关模型官网获取到请求接口与(密钥)。本文以千问大模型为例快速构建一个聊天模型。
语言学习模型(LLM)是功能强大的AI工具,能够像人类一样理解和生成文本。它们用途广泛,无需针对每项任务进行专门训练,即可撰写内容、翻译语言、撰写摘要和回答问题。下面主要会学习几点:
- 非流式调用大模型
- 流式调用大模型
- 批量调用大模型
- Zod 结构化输出
- 获取模型回答置信度
2.1 创建项目
在一个空白项目目录下执行如下命令:
在这个项目根目录下创建文件,并填入千问大模型的(密钥)作为项目的环境变量,如下
GPT plus 代充 只需 145
中添加 为:
2.2 创建大模型对象
导入如下依赖包:
GPT plus 代充 只需 145
创建大模型对象,下面注释掉的参数一般不需要配置:
2.3 非流式调用
GPT plus 代充 只需 145
上面是手动构造一个问答喂给模型,其实可以使用 提供的接口,如下:
大模型返回的是一个 实例,包含了模型的回复内容及其调用 统计信息,如下面的内容:
GPT plus 代充 只需 145
如果对用户提供收费服务,一般用来计算用户大模型的调用次数(调用量)。
2.3 流式调用
大多数模型都能在生成输出内容的同时进行流式传输。通过逐步显示输出,流式传输显著提升了用户体验,尤其是在处理较长的响应时。调用返回一个迭代器它会在生成过程中实时输出数据块。您可以使用循环来实时处理每个数据块,只需要调用如下的命令:
GPT plus 代充 只需 145
最后我们只需要实时将 刷新到 UI 上就能看到流式输出结果。
2.4 批量调用
同样也可以对大模型批量调用,提高调用效率:
2.5 结构化输出
模型可以按照给定的模式提供响应。这有助于确保输出易于解析,并可用于后续处理。LangChain 支持多种模式类型和方法来强制输出结构化数据。
zod schema是定义输出模式的首选方法。请注意,如果提供了 zod schema,模型输出还会使用 zod 的解析方法根据该 schema 进行验证。zod 也可以 json 嵌套。
GPT plus 代充 只需 145
2.6 模型回答置信度
某些模型可以通过在初始化模型时设置参数来配置,从而返回模型响应给定token可能性的标记级日志概率(只能标记生成 token 的概率,并不是对整句话生成的概率,没啥用,还不如每次输出时要模型给自己的回答打一个置信度分来的准确。):
GPT plus 代充 只需 145
下一章节我们详细来介绍:至关重要的 大模型消息。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/239783.html