# DeepSeek RAG 知识库系统
基于 DeepSeek + LangChain 的本地知识库问答系统,完全离线运行。
功能特性
- ✅ 支持 PDF、Word、TXT、Markdown 格式
- ✅ 使用 DeepSeek 本地大模型
- ✅ 向量数据库存储(Chroma)
- ✅ 完全离线,数据隐私保障
- ✅ 支持增量更新知识库
快速开始
1. 环境准备
# 创建虚拟环境 python -m venv rag-env # 激活环境 # Windows: rag-envScriptsactivate # Linux/Mac: source rag-env/bin/activate # 安装依赖 pip install -r requirements.txt
2. 准备知识库
把你的文档放到 knowledge_base/ 文件夹:
knowledge_base/ ├── 产品手册.pdf ├── 技术文档.docx └── 常见问题.txt
3. 启动系统
# 确保 DeepSeek 已在运行 ollama run deepseek-r1:7b # 启动 RAG 系统 python rag_app.py
4. 开始问答
❓ 请输入问题:公司的主要产品有哪些? 💡 回答:根据产品手册... 📚 参考文档: [1] 产品手册.pdf - ...
项目结构
. ├── config.py # 配置文件 ├── document_loader.py # 文档加载模块 ├── vector_store.py # 向量数据库模块 ├── qa_chain.py # RAG 问答链 ├── rag_app.py # 主程序 ├── requirements.txt # 依赖 ├── knowledge_base/ # 知识库文档 └── vector_db/ # 向量数据库(自动创建)
配置说明
编辑 config.py:
# 模型配置 LLM_MODEL = "deepseek-r1:7b" # 根据硬件调整 # RAG 参数 CHUNK_SIZE = 500 # 文本切分大小 TOP_K = 3 # 检索数量
常见问题
Q: 第一次运行很慢? A: 需要下载嵌入模型,耐心等待
Q: 如何添加新文档? A: 把文档放入 knowledge_base/,删除 vector_db/ 文件夹,重新运行
Q: 回答质量不高? A: 调整 CHUNK_SIZE 和 TOP_K 参数
更多教程
完整教程:查看配套CSDN文章《DeepSeek + LangChain 搭建本地知识库 RAG 系统》
by: 斌味代码
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/247984.html