2026年银河麒麟内网离线环境部署本地DeepSeek模型

银河麒麟内网离线环境部署本地DeepSeek模型很多使用银河麒麟操作系统的小伙伴想在纯内网的环境下搭建一套本地的 DeepSeek 大模型 再配合 RAG 构建属于自己 企业 的本地知识库 那么本篇文档就带领大家学习如何使用银河麒麟操作系统在离线的环境下 搭建 DeepSeek 大模型 系统介绍 是否联网 作用 Kylin Linux Desktop V10 SP1 是 下载离线机器所需的服务 模型等 Kylin Linux Advanced

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



很多使用银河麒麟操作系统的小伙伴想在纯内网的环境下搭建一套本地的DeepSeek大模型,再配合RAG构建属于自己(企业)的本地知识库,那么本篇文档就带领大家学习如何使用银河麒麟操作系统在离线的环境下,搭建DeepSeek大模型!

系统介绍 是否联网 作用 Kylin Linux Desktop V10 SP1 是 下载离线机器所需的服务、模型等 Kylin Linux Advanced Server release V10 否 内网运行DeepSeek大模型
  1. 首先需要有一台可以联网的机器,用来下载所需的资源,例如ollama、LMStudio和模型文件等
  2. 将下载好的ollama、模型文件上传至内网离线的机器中,进行安装并运行

联网机器下载ollama

相信下载安装ollama的步骤大家已经轻车熟路,另一篇文档也已经详细记录过,并且还记录了外接Web UI客户端的步骤,详情可以点击 这里

(1)在有网的机器下载对应架构的ollama

 
  

其他架构README详看:https://github.com/ollama/ollama/blob/main/docs/linux.md

(2)将下载完的ollama安装包同步到离线机器中

 
  

联网机器下载LM Studio和模型文件

LM Studio也是一款专注于本地部署和运行大型语言模型(LLM)的桌面应用程序,其核心优势在于将复杂的模型部署过程简化为图形化操作。

我们这里下载LM Studio的目的是使用它的模型下载功能,比直接在HuggingFace下载更方便一些。

(1)下载LM Studio

官网:https://lmstudio.ai/,下载对应的版本

image-20250228145555861

(2)授权LM Studio权限,配置仓库代理

下载完成后为,需要给执行权限:

image-20250228145905779

赋予执行权限后,即可打开,

默认情况下国内无法正常加载模型,需要勾选HuggingFace代理才可正常加载HuggingFace中的模型,

打开后进入设置,配置语言、代理:

image-20250228105920781

还可以根据实际情况修改下载的模型存储目录:

image-20250228105941484

(3)开始下载模型

点击左侧的放大镜,搜索deepseek,选择想要下载的模型,点击Download:

image-20250228105801989

正在下载中,默认下载的是gguf格式的模型文件,此格式将所有模型信息(权重、架构、超参数等)封装在单一文件内,更适合离线迁移时使用:

image-20250228110054900

(4)模型下载完毕后,同步至离线机器

 
  

离线机器中部署ollama及模型

全部文件都准备完毕后,开始在离线机器中进行部署。

(1)部署ollama

 
  

配置systemd管理:

 
  

加载systemd,启动ollama:

 
  

确认启动成功:

 
  

(2)加载模型到ollama

首先在模型所在目录,创建一个Modelfile文件:

 
  

创建完毕后,开始导入模型:

 
  
 
  

image-20250228134539672

 
  

image-20250228155636663

到此我们拥有了一个在内网属于自己的离线DeepSeek了,后续可以配合RAG构建专属的本地知识库,欢迎尝试。

银河麒麟文档中心:https://document.kylinos.cn

小讯
上一篇 2026-04-03 23:37
下一篇 2026-04-03 23:35

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/224070.html