基于LangChain框架构建的统一大语言模型集成开发平台_支持GPT系列模型与国产大模型通义千问文心一言百度千帆讯飞星火及本地...

基于LangChain框架构建的统一大语言模型集成开发平台_支持GPT系列模型与国产大模型通义千问文心一言百度千帆讯飞星火及本地...0 本项目相关视频链接 提供一种 LLM 集成解决方案 一份代码支持快速同时支持 gpt 大模型 国产大模型 通义千问 文心一言 百度千帆 讯飞星火等 本地开源大模型 Ollama https www bilibili com video BV12PCmYZEDt vd source 30acb5331e4f https youtu

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。

1、前期准备工作

1.1 LangChain简介

1.2 开发环境搭建 anaconda、pycharm 安装

1.3 gpt大模型使用方案

1.4 非gpt大模型方案 OneAPI安装、部署、创建渠道和令牌

(1)OneAPI是什么

(2)安装、部署

(3)创建渠道和令牌

1.5 本地开源大模型方案 Ollama安装、启动、下载大模型

(1)Ollama是什么

(2)Ollama安装、启动、下载大模型

2、项目初始化

2.1 下载源码

2.2 构建项目

2.3 将相关代码拷贝到项目工程中

直接将下载的文件夹中的文件llmBasicTest工程文件夹拷贝到新建的项目根目录

2.4 安装项目依赖

3、项目测试

3.1 根据自己实际情况调整utils/myLLM.py内容

openai模型相关配置 根据自己的实际情况进行调整
OPENAI_API_BASE = "https://api.wlai.vip/v1"
OPENAI_CHAT_API_KEY = "sk-XmrIEFplNArLlYa0E8C5A7C5F82041FdBd923e9dD0"
OPENAI_CHAT_MODEL = "gpt-4o-mini"
非gpt大模型相关配置(oneapi方案 通义千问为例) 根据自己的实际情况进行调整
ONEAPI_API_BASE = "http://139.224.72.218:3000/v1"
ONEAPI_CHAT_API_KEY = "sk-0FxX9ncd0yXjTQF877Cc9dB6B2F44aD08db85"
ONEAPI_CHAT_MODEL = "qwen-max"
本地大模型相关配置(Ollama方案 llama3.1:latest为例) 根据自己的实际情况进行调整
OLLAMA_API_BASE = "http://localhost:11434/v1"
OLLAMA_CHAT_API_KEY = "ollama"
OLLAMA_CHAT_MODEL = "qwen2.5:latest"































3.2 调整llmTest.py内容

调整:选择使用哪种模型标志设置:
LLM_TYPE = "oneapi" # openai:调用gpt模型;oneapi:调用oneapi方案支持的模型(这里调用通义千问)

3.3 运行llmTest.py测试

使用python llmTest.py命令启动脚本

小讯
上一篇 2026-03-13 10:53
下一篇 2026-03-13 10:55

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/216241.html