基于 DeepSeek + LangChain 的本地知识库问答系统,完全离线运行

基于 DeepSeek + LangChain 的本地知识库问答系统,完全离线运行DeepSeek RAG 知识库系统 基于 DeepSeek LangChain 的本地知识库问答系统 完全离线运行 功能特性 支持 PDF Word TXT Markdown 格式 使用 DeepSeek 本地大模型 向量数据库存储 Chroma 完全离线 数据隐私保障 支持增量更新知识库 快速开始 1 环境准备 创建虚拟环境 python m

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。

# DeepSeek RAG 知识库系统

基于 DeepSeek + LangChain 的本地知识库问答系统,完全离线运行。

功能特性

  • ✅ 支持 PDF、Word、TXT、Markdown 格式
  • ✅ 使用 DeepSeek 本地大模型
  • ✅ 向量数据库存储(Chroma)
  • ✅ 完全离线,数据隐私保障
  • ✅ 支持增量更新知识库

快速开始

1. 环境准备

# 创建虚拟环境 python -m venv rag-env # 激活环境 # Windows: rag-envScriptsactivate # Linux/Mac: source rag-env/bin/activate # 安装依赖 pip install -r requirements.txt 

2. 准备知识库

把你的文档放到 knowledge_base/ 文件夹:

knowledge_base/ ├── 产品手册.pdf ├── 技术文档.docx └── 常见问题.txt 

3. 启动系统

# 确保 DeepSeek 已在运行 ollama run deepseek-r1:7b # 启动 RAG 系统 python rag_app.py 

4. 开始问答

❓ 请输入问题:公司的主要产品有哪些? 💡 回答:根据产品手册... 📚 参考文档: [1] 产品手册.pdf - ... 

项目结构

. ├── config.py # 配置文件 ├── document_loader.py # 文档加载模块 ├── vector_store.py # 向量数据库模块 ├── qa_chain.py # RAG 问答链 ├── rag_app.py # 主程序 ├── requirements.txt # 依赖 ├── knowledge_base/ # 知识库文档 └── vector_db/ # 向量数据库(自动创建) 

配置说明

编辑 config.py

# 模型配置 LLM_MODEL = "deepseek-r1:7b" # 根据硬件调整 # RAG 参数 CHUNK_SIZE = 500 # 文本切分大小 TOP_K = 3 # 检索数量 

常见问题

Q: 第一次运行很慢? A: 需要下载嵌入模型,耐心等待

Q: 如何添加新文档? A: 把文档放入 knowledge_base/,删除 vector_db/ 文件夹,重新运行

Q: 回答质量不高? A: 调整 CHUNK_SIZE 和 TOP_K 参数

更多教程

完整教程:查看配套CSDN文章《DeepSeek + LangChain 搭建本地知识库 RAG 系统》


by: 斌味代码

小讯
上一篇 2026-03-28 08:01
下一篇 2026-03-28 07:59

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/247984.html