2026年WorkBuddy 接入 DeepSeek-V3 模型的详细配置步骤

WorkBuddy 接入 DeepSeek-V3 模型的详细配置步骤p p 需完成模型服务部署 api 参数配置与提示词适配三重环节 一 用 vllm 本地部署 deepseek v3 并监听 8000 端口 二 在 workbuddy 添加自定义模型 base url 为 http 127 0 0 1 8000 v1 模型 id 为 deepseek v3 三 将系统提示词替换为 deepseek v3 专用轻量模板 lt

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

需完成模型服务部署、api参数配置与提示词适配三重环节:一、用vllm本地部署deepseek-v3并监听8000端口;二、在workbuddy添加自定义模型,base url为http://127.0.0.1:8000/v1,模型id为deepseek-v3;三、将系统提示词替换为deepseek-v3专用轻量模板。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 多模态理解力帮你轻松跨越从0到1的创作门槛☜☜☜ 

workbuddy 接入 deepseek-v3 模型的详细配置步骤

如果您希望在WorkBuddy中使用DeepSeek-V3模型进行高质量代码生成或复杂推理任务,则需完成模型服务部署、API参数配置与提示词适配三重环节。以下是实现该目标的详细配置步骤:

DeepSeek-V3不以内置方式集成于WorkBuddy,必须先在本地启动兼容OpenAI格式的HTTP推理接口,使WorkBuddy可通过标准v1/chat/completions路径调用。该服务是后续所有配置生效的前提。

WorkBuddy通过“AI模型→添加自定义模型”入口注入外部LLM,要求严格遵循OpenAI兼容协议;若Base URL或模型ID不匹配,将返回404 Not Found500 Internal Server Error

1、打开WorkBuddy客户端,点击右上角头像进入【设置】,选择【AI模型】选项卡。

3、在“模型ID”字段中输入与vLLM启动时--model参数完全一致的标识:deepseek-v3

4、点击【保存】后,观察状态栏是否显示“模型校验中”,数秒后若出现绿色对勾即表示接入成功。

DeepSeek-V3对system角色指令高度敏感,若沿用WorkBuddy默认模板(含多轮历史摘要与格式约束),会导致响应截断、拒绝生成或输出非预期JSON结构。必须手动覆盖为DeepSeek训练时所采用的轻量级system schema。

1、在刚添加的DeepSeek-V3模型配置项右侧,点击【高级设置】展开区域。

3、关闭高级设置面板,再次点击【保存】以使新模板生效。

仅完成模型添加并不自动启用其参与推理;必须开启全局热切换开关,并在当前会话或偏好设置中明确指定DeepSeek-V3为活跃模型,否则系统仍将调用默认混元模型。

1、返回【设置】→【AI模型管理】,确保「启用多模型热切换」滑动开关已置为开启状态(呈蓝色)。

2、在模型列表中找到DeepSeek-V3条目,点击右侧【设为默认】按钮。

3、若需在特定会话中临时使用该模型:在主界面任意对话框右侧点击当前模型图标,从下拉菜单中选择DeepSeek-V3,随后发送消息即可触发调用。

配置完成后需执行最小化测试,确认端到端链路无阻断;常见失败点集中于网络可达性、模型ID一致性及HTTP header兼容性,而非WorkBuddy客户端本身。

1、在WorkBuddy主界面新建对话,输入指令:“输出Python代码,实现快速排序算法。”

2、观察响应是否包含完整可执行代码块,且无乱码、截断或报错信息。

3、如遇响应延迟超15秒,检查vLLM进程是否仍在运行,以及终端是否输出CUDA out of memory警告;此时需在vLLM启动命令中加入–gpu-memory-utilization 0.85参数限制显存占用。

4、如返回“Model not found”,请核对WorkBuddy中填写的模型ID是否与curl测试时-d参数中model字段值完全一致,包括大小写与连字符。

小讯
上一篇 2026-04-14 09:59
下一篇 2026-04-14 09:57

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/261418.html