2026年DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级喂饭教程

DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级喂饭教程最近 DeepSeek 大火 想必大家都有所耳闻 各路媒体从各个方面报道了 DeepSeek 这家神秘的公司的各方面消息 这家低调的技术公司用一组硬核数据回应了所有关注 千亿参数规模下实现 0 5 元 百万 tokens 的 API 调用成本 91 5 的中文基准测试得分 推理效率较传统架构提升 5 倍 DeepSeek 的 AI 大模型作为国产之光 不仅刷新了国产大模型的天花板 更标志着普惠 AI 时代的实质性突破

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



最近,DeepSeek大火,想必大家都有所耳闻,各路媒体从各个方面报道了DeepSeek这家神秘的公司的各方面消息,这家低调的技术公司用一组硬核数据回应了所有关注:千亿参数规模下实现0.5元/百万tokens的API调用成本,91.5%的中文基准测试得分,推理效率较传统架构提升5倍。

DeepSeek的AI大模型作为国产之光,不仅刷新了国产大模型的天花板,更标志着普惠AI时代的实质性突破。

我们看新闻的同时,不应该只停留在听说的层面上,应该深入体验并实践于各种应用场景:有人用它来帮自己写文章,有人用它来帮自己思考做决策,甚至有人用它来suanming,真是脑洞大开,破局圈友应该是行动最快的那群人。

本文将带领大家本地部署 DeepSeek+Dify,零成本搭建自己的私有知识库。学会本文搭建方法后,我们也可以把自己的个人资料,过往输出文章,日记等所有个人信息上传到本地知识库,打造自己的私人助理。

当然,还可以有很多其他应用场景,比如:智能客服,智能题库。

 

可以结合视频版,效率会更高:

 

本文,将按照以下主线展开:

  • 安装
  • 安装Ollama
  • 安装Dify
  • 创建应用
  • 创建知识库

 

 

网址:

image-

一路点击下一步安装即可,因为docker会用到hyper-v,如果电脑没开启hyper-v,可能会需要重启一次。

hyper-v开始步骤:Win11 家庭版/专业版开启Hyper-V - 知乎

Ollama 是一个开源的本地化工具,旨在简化大型语言模型(LLMs)的本地运行和部署。它专注于让用户能够轻松在个人计算机或服务器上运行多种开源语言大模型(如deepseek ,qwen,Llama、Mistral、Gemma等),而无需依赖云端服务或复杂的配置流程。

网址:

安装完成后,桌面右下角会显示ollama图标

在ollama官网首页的搜索框,点击一下即可看到deepseek-r1在第一个位置,可见热度之高啊!

可以看到模型有根据参数分为1.5b,7b,8b,14b,32b,70b,671b等,我们需要根据自己电脑选择下载对应参数的模型。

我的电脑配置如下:

问一下deepseek,让他帮我们选择,提示词如下:

ollama安装完后,没有图形界面,安装大模型,可以类比为docker拉取镜像,因为很多操作命令类似

安装完成后,会自动运行大模型,我们输入一个问题测试一下:

dify官网地址:

dify官网文档:

dify项目github地址:

这里简单介绍一下dify,需要详细了解的可以看dify的官网或官方文档。

Dify.AI 是一个开源的大模型应用开发平台,旨在帮助开发者轻松构建和运营生成式 AI 原生应用。该平台提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等全方位的能力,使开发者能够专注于创造应用的核心价值,而无需在技术细节上耗费过多精力。

从创建应用页面可以看到,他可以创建:聊天助手,Agent,文生文应用,对话工作流,任务编排工作流等

支持接入的大模型供应商几乎涵盖了全球所有知名大模型供应商

当然也包括国内的deepseek,ollama

他也支持从已有文本,Notion,网页等数据源创建知识库:

这就意味着,我们可以通过部署本地大模型,企业知识库,来部署企业私有化AI应用,比如:企业垂直领域的销售客服,HR用来培训企业招聘来的新员工,教育机构可以部署私有题库。并通过api的形式灵活构建自己的应用。

文件内需要添加此内容

此时回到docker桌面客户端可看到,所有dify所需要的环境都已经运行起来了

在浏览器地址栏输入即可安装:

然后登录账号

进入dify主页如下:

由于本教程的dify是通过docker部署的,也就是说,项目是运行在docker容器内部的,但是我们的ollama是运行在本地电脑的,但是他们是在同一台电脑上的,这就意味着,要想dify能够访问ollama提供的服务,需要获取到本地电脑的内网IP即可。

打开命令行:win+r

输入:cmd

在命令行输入:ipconfig,并找到当前连接的网络适配器(如“无线局域网适配器 WLAN”或“以太网适配器”),下方显示的  即为内网IP(如  或 )

然后,配置本地内网IP到dify的docker部署配置文件内

找到dify项目下的docker文件夹并进入,前面已经将改为了文件了,在末尾填上以下配置:

到此,dify就与前面部署的本地大模型关联起来了

这表明,dify与本地部署的大模型deepseek-r1连通了,但是,我想让他的回答是基于我的私有知识库作为上下文来和我聊天怎么办?这就需要用到本地知识库了

Embedding模型的作用是将高维数据(如文本、图像)转换为低维向量,这些向量能够捕捉原始数据中的语义信息。常见的应用包括文本分类、相似性搜索、推荐系统等。

我们上传的资料要通过Embedding模型转换为向量数据存入向量数据库,这样回答问题时,才能根据自然语言,准确获取到原始数据的含义并召回,因此我们需要提前将私有数据向量化入库。

Embedding 模型那么多,为什么选择 bge-m3 ?

(BAAI General Embedding) 专注于检索增强llm领域,经本人测试,对中文场景支持效果更好,当然也有很多其他embedding模型可供选择,可以根据自己的场景,在ollama上搜索“embedding”查询适合自己的嵌入模型。

回到刚才的应用聊天页面,添加知识库

如果只是当前应用内调试可以不必更新,但是如果想把当前应用发布为对外api服务或者持久化保存,就需要保存当前应用设置,记得实时保存当前设置。

思考过程具有浓厚的deepseek风格,就好像真的有一个很认真的人在翻看文档一样,它把自己翻看文档的过程,清晰的展示了出来,最后给出自己的结论,非常严谨。如果是个特定的学术知识库,他一定还能帮你推演,思考,总结,非常方便。

如果感觉回答的效果还不满意,可以对召回参数进行调整,或者可以参考官方文档,做其他详细设置:

DeepSeek作为可以私有化本地部署的大模型,加上Dify这个组合,我们还可以有很多其他应用场景,比如:智能客服,智能题库。

也可以把自己的个人资料,过往输出文章,日记等所有个人信息上传到本地知识库,打造自己的私人助理。

Dify还有很多其他功能,有了deepseek这样的优秀国产AI大模型加持,我们可以做更多智能体应用。当然,Dify也可以像coze一样,发布为对外服务的api,这样,它就可以结合cursor快速做出更多的AI应用。

小讯
上一篇 2026-03-13 21:25
下一篇 2026-03-13 21:26

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/217178.html