2026年Cursor AI 支持接入国产大模型(如通义千问、文心一言)吗?

Cursor AI 支持接入国产大模型(如通义千问、文心一言)吗?p p cursor ai 可通过 siliconflow 百度千帆 智谱 ai 或本地 ollama 四种方式接入国产大模型 均需配置 openai 兼容接口 不支持原生内置通义千问 文心一言等模型 strong AI 智能聊天 问答助手 AI 智能搜索 多模态理解力帮你轻松跨越从 0 到 1 的创作门槛 lt strong

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

cursor ai 可通过 siliconflow、百度千帆、智谱 ai 或本地 ollama 四种方式接入国产大模型,均需配置 openai 兼容接口,不支持原生内置通义千问、文心一言等模型。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 多模态理解力帮你轻松跨越从0到1的创作门槛☜☜☜ 

cursor ai 支持接入国产大模型(如通义千问、文心一言)吗?

Cursor AI 支持接入国产大模型,但需通过第三方平台或自定义 API 方式实现,并非原生内置通义千问、文心一言等模型。以下是具体可行的接入路径:

siliconFlow 是国内主流的大模型聚合平台,已备案并集成通义千问(Qwen2.5-Coder)、文心系列(ERNIE 4.5 Turbo、ERNIE X1.1)、DeepSeek 等多个国产模型,提供标准化 API 接口,可与 Cursor 的自定义模型配置无缝对接。

1、访问 siliconFlow 官方网站完成企业实名认证与 API Key 申请。

2、在 Cursor 设置中进入 Settings → AI → Custom Model → Add Model。

3、填写模型名称(如 qwen2.5-coder-sf),选择 Provider 类型为 “OpenAI-compatible”,输入 siliconFlow 提供的 Base URL(例如 https://api.siliconflow.cn/v1)。

4、粘贴 siliconFlow 分配的 API Key 到对应字段,保存配置。

5、在代码编辑器中右键调用 AI 功能时,选择刚添加的模型名称即可触发通义千问代码版响应。

百度千帆作为文心大模型官方服务平台,提供符合《生成式人工智能服务管理暂行办法》的合规 API 接入能力,支持 ERNIE 4.5 Turbo、ERNIE X1.1 等最新版本,适用于 Cursor 的自定义模型通道。

1、登录百度千帆控制台(qianfan.baidu.com),完成企业认证并创建应用获取 API Key 与 Secret Key。

2、使用千帆提供的 OpenAI 兼容接口地址(如 https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions)。

3、在 Cursor 自定义模型设置中,Provider 类型选 “OpenAI-compatible”,Base URL 填入上述地址。

4、在 API Key 字段中填入拼接后的鉴权字符串:Bearer {access_token},其中 access_token 需通过 API Key + Secret Key 调用鉴权接口动态获取。

5、设置模型名称为 ernie-4.5-turbo-qf,启用后即可在 Cursor 中调用文心大模型进行注释转代码、函数解释等操作。

智谱 AI 提供 GLM-4-Flash、GLM-4-Air 等国产高性能模型,其 API 兼容 OpenAI 格式,适配 Cursor 的 Custom Model 配置机制,适合对长上下文与逻辑推理有要求的前端开发场景。

1、前往智谱官方平台(bigmodel.cn)注册账号并创建 API Key。

2、在 Cursor 的 Custom Model 配置页中,Provider 类型设为 “OpenAI-compatible”。

3、Base URL 填写智谱提供的 endpoint(如 https://open.bigmodel.cn/api/paas/v4/chat/completions)。

4、API Key 字段直接粘贴智谱分配的密钥字符串。

5、模型名称设为 glm-4-flash-zp,保存后可在 Cursor 编辑器内选择该模型执行代码补全或重构任务。

Ollama 是轻量级本地大模型运行框架,支持一键拉取并运行 Qwen2、Baichuan2 等开源国产模型,配合 OpenAI 兼容 API 服务,可绕过网络限制在 Cursor 中离线调用。

1、在本地机器安装 Ollama(ollama.com),执行 ollama run qwen2:7b 下载并启动通义千问 7B 版本。

2、运行 ollama serve 启动本地 API 服务,默认监听 http://127.0.0.1:11434。

3、在 Cursor Custom Model 设置中,Base URL 填写 http://127.0.0.1:11434/v1。

4、API Key 字段任意填写(如 ollama),Provider 类型选 “OpenAI-compatible”。

5、模型名称设为 qwen2-7b-local,启用后所有请求将由本地 CPU/GPU 承载,无需外网通信。

小讯
上一篇 2026-04-20 18:36
下一篇 2026-04-20 18:34

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/265464.html