1、前期准备工作
1.1 LangChain简介
1.2 开发环境搭建 anaconda、pycharm 安装
1.3 gpt大模型使用方案
1.4 非gpt大模型方案 OneAPI安装、部署、创建渠道和令牌
(1)OneAPI是什么
(2)安装、部署
(3)创建渠道和令牌
1.5 本地开源大模型方案 Ollama安装、启动、下载大模型
(1)Ollama是什么
(2)Ollama安装、启动、下载大模型
2、项目初始化
2.1 下载源码
2.2 构建项目
2.3 将相关代码拷贝到项目工程中
直接将下载的文件夹中的文件llmBasicTest工程文件夹拷贝到新建的项目根目录
2.4 安装项目依赖
3、项目测试
3.1 根据自己实际情况调整utils/myLLM.py内容
openai模型相关配置 根据自己的实际情况进行调整
OPENAI_API_BASE = "https://api.wlai.vip/v1"
OPENAI_CHAT_API_KEY = "sk-XmrIEFplNArLlYa0E8C5A7C5F82041FdBd923e9dD0"
OPENAI_CHAT_MODEL = "gpt-4o-mini"
非gpt大模型相关配置(oneapi方案 通义千问为例) 根据自己的实际情况进行调整
ONEAPI_API_BASE = "http://139.224.72.218:3000/v1"
ONEAPI_CHAT_API_KEY = "sk-0FxX9ncd0yXjTQF877Cc9dB6B2F44aD08db85"
ONEAPI_CHAT_MODEL = "qwen-max"
本地大模型相关配置(Ollama方案 llama3.1:latest为例) 根据自己的实际情况进行调整
OLLAMA_API_BASE = "http://localhost:11434/v1"
OLLAMA_CHAT_API_KEY = "ollama"
OLLAMA_CHAT_MODEL = "qwen2.5:latest"
3.2 调整llmTest.py内容
调整:选择使用哪种模型标志设置:
LLM_TYPE = "oneapi" # openai:调用gpt模型;oneapi:调用oneapi方案支持的模型(这里调用通义千问)
3.3 运行llmTest.py测试
使用python llmTest.py命令启动脚本
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/216241.html