在 VSCode 中运行本地 DeepSeek-R1 的完整教程如下:
一、安装 Ollama 平台Ollama 是支持本地运行大型语言模型(LLM)的轻量级工具,需优先安装。
- 下载安装程序访问 Ollama 官网,根据操作系统选择 Windows/macOS/Linux 版本下载。
- 运行安装包双击下载的 .exe 文件(Windows)或拖拽至 Applications 文件夹(macOS),完成安装。
- 验证安装打开终端,输入命令 ollama –version,若显示版本号则安装成功。
CodeGPT 是 VSCode 的扩展工具,用于集成 LLM 提供编程辅助。
- 打开扩展市场在 VSCode 中按 Ctrl+Shift+X(Windows/Linux)或 Cmd+Shift+X(macOS)。
- 搜索并安装输入 CodeGPT,点击扩展右侧的 Install 按钮。
根据硬件配置选择适合的模型版本,普通电脑推荐轻量级模型,高端设备可选高参数版本。
- 模型类型
聊天模型:deepseek-r1:1.5b(优化小环境,兼容大多数设备)。
自动补全模型:deepseek-coder:base(支持 Fill-In-The-Middle 技术,预测代码中间部分)。
通过 CodeGPT 界面直接下载并配置模型。
- 登录 CodeGPT在 VSCode 中打开 CodeGPT 扩展,未登录用户需先完成登录。
- 选择本地 LLM 提供商在侧边栏点击 Local LLM,选择 Ollama 作为提供商。
- 下载模型根据配置选择模型版本(如 1.5b 或 8b),点击 Download 按钮。
- 启用模型下载完成后,在 Local LLMs 列表中选中 deepseek-r1:1.5b,即可开始交互。
通过终端命令下载模型,并在 CodeGPT 中配置。
- 拉取模型在 VSCode 终端输入命令:ollama pull deepseek-coder:base
- 配置自动补全打开 CodeGPT 设置,导航至 自动补全模型 部分,选择 deepseek-coder:base。
- 代码交互命令
/fix:修复代码错误或提出改进建议。
/refactor:优化代码结构。
/explain:解释代码逻辑(支持中文命令如 /解释)。
- 自动补全功能编码时模型会实时提供建议,支持函数、方法甚至代码块的补全。
- 无需依赖云服务:所有操作在本地完成,避免网络延迟或服务繁忙问题。
- 数据隐私安全:代码和数据完全存储在本地,防止外部泄露风险。
- 硬件适配灵活:根据设备性能选择模型版本,平衡效果与资源占用。
总结:通过安装 Ollama 和 CodeGPT,下载适配的 DeepSeek 模型,用户可在 10 分钟内完成本地部署,实现高效的编程辅助与隐私保护。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/223361.html