启动模式 CPU * MEM GPU 备注 代理模型 4C*8G 代理模型不依赖GPU 本地模型 8C*32G 24G 本地启动最好有24G以上GPU
:::success 下载DB-GPT源码
:::
默认数据库使用SQLite,因此默认启动模式下,无需安装数据库。 如果需要使用其他数据库,可以看后面的高级教程。 我们推荐通过conda的虚拟环境来进行Python虚拟环境的安装。关于Miniconda环境的安装,可以参见Miniconda安装教程。
:::color1 创建Python虚拟环境
:::
DB-GPT可以通过代理模式部署在硬件较低的服务器上,也可以在GPU下进行私有化本地模型的部署。 如果您的硬件配置较低,可以使用第三方大模型API服务,如OpenAI、Azure、通义、文心等进行安装。
:::color3 ⚠️ 注意: 需要确保安装了git-lfs
- CentOS安装: yum install git-lfs
- Ubuntu安装: apt-get install git-lfs
- MacOS安装: brew install git-lfs
:::
- ⚠️ 注意.env 配置文件内容不要被覆盖
:::
本地模型
- 说明: 部署时优先选择评测效果更好的模型,推荐Qwen2.5系列
:::
:::success ⚠️ 注: llama.cpp 可以在Mac M1或者Mac M2运行
:::
DB-GPT同时也支持更低成本的推理框架llama.cpp, 可以通过llama-cpp-python 来进行使用
在使用llama.cpp之前,首先需要准备gguf格式的模型文件,有两种方法可以获取,你可以选择一种方法获取对应的文件。
:::color1 方法1: 下载已转换的模型
:::
如果你想使用Vicuna-13b-v1.5,你可以下载已经转换好的文件TheBloke/vicuna-13B-v1.5-GGUF,只需要这一个文件。下载文件并将其放到模型路径, 需要将模型重命名为: ggml-model-q4_0.gguf.
:::color1 方法2: 自己转换文件
:::
你在使用中也可以根据llama.cpp#prepare-data–run中的说明自行转换模型文件,并把转换后的文件放在models目录中,并命名为。
llama.cpp在DB-GPT中是可选安装项, 你可以通过以下命令进行安装修改.env文件使用llama.cpp, 然后可以通过运行命令进行服务启动
当前DB-GPT在元数据与系统数据管理上,支持两种数据库。与 如果是本地测试使用,可以用,如果是生产环境,我们推荐使用, 使用可以跳过此部分内容。
DB-GPT项目默认内置了一部分测试数据,可以通过以下命令加载到本地数据库中进行测试。
:::color1 Linux&Unix平台
:::
:::color1 Windows平台
:::
DB-GPT服务被打包到一个server当中,可以通过如下命令启动整个DB-GPT服务。
:::danger 特殊说明: ⚠️ v0.4.3及以前版本运行服务命令为:
:::
:::info 打开浏览器访问 http://localhost:5670
注⚠️: v0.5.4之前版本端口为5000, http://localhost:5000
具体端口配置查看文件中配置
:::
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/226552.html