将 OpenCode 升级为多智能体协作系统,让 AI 像专家团队一样协同工作
传统 AI 编程助手的痛点
- ❌ 单线程工作,效率低下
- ❌ 容易半途而废,任务执行不彻底
- ❌ 只能处理简单任务,复杂需求需要人工拆解
- ❌ 模型选择死板,无法按场景优化
Oh My OpenCode 的解决方案
- ✅ 多智能体并行工作:多个 AI 同时处理不同子任务
- ✅ 目标导向执行:不达目标不停止,真正的自动化
- ✅ 专业分工:每个智能体有自己的专长领域
- ✅ 智能调度:根据任务类别自动选择最合适的模型
一句话概括:Oh My OpenCode 把 OpenCode 从一个对话式 AI 编程工具,升级为一个多智能体、可并行、强目标导向的自动化开发系统。
什么是 Sisyphus(西西弗斯)?
Sisyphus 是 Oh My OpenCode 的主编排器,负责:
- 理解用户需求
- 分解复杂任务
- 调度专业智能体
- 整合结果并持续跟进直到完成
名字来源于希腊神话,象征着永不言弃、持续推动的精神——这正是这个智能体的核心特质。
智能体架构图
┌─────────────────┐
│ 你的需求输入 │ └────────┬────────┘ ▼ ┌─────────────────┐ │ Sisyphus │ ← 主编排器 │ (总指挥) │ └────────┬────────┘ │ ┌────────────────────┼────────────────────┐ ▼ ▼ ▼
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Prometheus │ │ Oracle │ │ Librarian │ │ (战略规划) │ │ (架构顾问) │ │ (文档专家) │ └─────────────────┘ └─────────────────┘ └─────────────────┘
│ │ │ ▼ ▼ ▼
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Explore │ │ Hephaestus │ │ Atlas │ │ (代码搜索) │ │ (深度工匠) │ │ (任务指挥) │ └─────────────────┘ └─────────────────┘ └─────────────────┘
任务类别机制
你不需要指定用哪个模型,只需要描述任务类别:
visual-engineering 前端开发、UI组件 多模态模型
deep 复杂重构、深度分析 推理强模型
quick 简单修复、格式调整 响应快模型
ultrabrain 高难度脑力任务 顶级模型
系统要求
检查已安装工具
# 检查 Node.js 版本(需要 v20+) node –version
检查 Git
git –version
如果未安装 Node.js
Windows: 下载 Node.js LTS 安装包
macOS:
brew install node
Linux (Ubuntu/Debian):
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - sudo apt-get install -y nodejs
OpenCode 是 Oh My OpenCode 的基础运行环境。
方法一:npm 安装(推荐)
# 设置官方源(避免镜像问题) npm config set registry https://registry.npmjs.org
全局安装 OpenCode
npm install -g opencode-ai@latest
方法二:官方安装脚本(Linux/macOS)
curl -fsSL https://opencode.ai/install | bash
验证安装
opencode –version
应显示 1.0.150 或更高版本
Windows 特别说明
如果遇到执行策略错误,以管理员身份运行 PowerShell:
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
步骤 1:安装 Bun(可选,可用 npx 替代)
macOS/Linux:
curl -fsSL https://bun.sh/install | bash
Windows (PowerShell):
powershell -c “irm https://bun.sh/install.ps1 | iex”
或通过 npm 安装:
npm install -g bun
步骤 2:运行安装
方式一:交互式安装(推荐新手)
bunx oh-my-opencode install
或
npx oh-my-opencode@latest install
安装程序会询问你的 AI 订阅情况,根据实际情况回答即可。
方式二:非交互式安装(已知订阅情况)
# 只有公司中转模型(Kimi、GLM) bunx oh-my-opencode install –no-tui –claude=no –openai=no –gemini=no –kimi-for-coding=yes –zai-coding-plan=yes –copilot=no
步骤 3:安装成功的标志
看到以下输出表示安装成功:
[OK] Kimi For Coding (Sisyphus/Prometheus fallback)
Model Assignment
Models auto-configured based on provider priority
Installation complete! Run opencode to start!
场景说明
很多公司使用内部中转 API 来统一管理 AI 模型调用,例如:
- Kimi k2.5
- GLM-5
- MiniMax M2.7
- DeepSeek v3.2
- Qwen3 Coder Plus
配置文件结构
Oh My OpenCode 有两个核心配置文件:
/.config/opencode/opencode.json 插件加载、全局设置 模型配置
/.config/opencode/oh-my-opencode.json 智能体模型映射
配置步骤
1. 创建主配置文件
# Windows notepad ~/.config/opencode/opencode.json
macOS/Linux
vim ~/.config/opencode/opencode.json
写入内容:
{ “plugin”: [“oh-my-opencode”] }
2. 创建模型配置文件
# Windows notepad ~/.config/opencode/oh-my-opencode.json
macOS/Linux
vim ~/.config/opencode/oh-my-opencode.json
3. 配置模板(公司中转 API)
,
"oracle": { "model": "deepseek-v3.2", "provider": "kimi" }, "librarian": { "model": "MiniMax/MiniMax-M2.7", "provider": "minimax" }, "explore": { "model": "qwen3-coder-plus", "provider": "kimi" }, "prometheus": { "model": "GLM-5", "provider": "zai" }, "multimodal-looker": { "model": "kimi-k2.5", "provider": "kimi" }
},
“categories”: {
"visual-engineering": { "model": "kimi-k2.5", "provider": "kimi" }, "ultrabrain": { "model": "deepseek-v3.2", "provider": "kimi" }, "quick": { "model": "qwen3-coder-plus", "provider": "kimi" }
},
“provider”: {
"kimi": { "apiKey": "your-api-key", "baseURL": "http://your-proxy-server:port/v1", "models": ["kimi-k2.5", "deepseek-v3.2", "qwen3-coder-plus"] }, "zai": { "apiKey": "your-api-key", "baseURL": "http://your-proxy-server:port/v1", "models": ["GLM-5"] }, "minimax": { "apiKey": "your-api-key", "baseURL": "http://your-proxy-server:port/v1", "models": ["MiniMax/MiniMax-M2.7"] }
} }
模型分配策略
核心智能体一览
智能体调用方式
隐式调用(推荐)
使用 ulw 魔法词,Sisyphus 自动调度:
ulw 帮我实现一个用户登录功能
显式调用
直接 @ 某个智能体:
@oracle 帮我分析这个架构的优缺点 @librarian 查询 React 19 的新特性 @explore 找到所有使用 useState 的地方
魔法词大全
ulw 或
ultrawork 满血模式:并行、深度、不停止 任何正式任务
ultrathink 深度思考模式 复杂问题分析
/ulw-loop 自循环模式 需要高完成度的任务
/ralph-loop Ralph 循环 持续改进任务
场景一:理解陌生项目
ulw 帮我分析这个项目的整体架构,画出主要模块的依赖关系图, 总结出核心业务流程和关键数据表结构。
Sisyphus 会这样做:
- 派 Explore 扫描目录结构
- 派 Librarian 分析依赖文件
- 派 Oracle 总结架构设计
- 整合输出完整报告
场景二:实现新功能
ulw 实现一个深色模式切换功能,要求:
- 使用 CSS 变量
- 支持系统主题跟随
- 用户偏好保存到 localStorage
- 包含切换按钮
场景三:代码重构
ulw 重构 utils 目录下的所有工具函数:
- 统一命名规范为 camelCase
- 添加完整的 JSDoc 注释
- 抽取重复逻辑为公共函数
- 确保所有测试通过
场景四:自动化测试
加上/ulw-loop后,系统会持续工作直到目标达成。/ulw-loop 将 user-service 模块的测试覆盖率从 45% 提升到 85% 以上
场景五:技术调研
@librarian 调研以下内容并给出推荐方案:
- React 状态管理方案对比(Redux/Zustand/Jotai)
- 每个方案的优缺点
- 在我们的场景下推荐哪个
场景六:代码审查
@oracle 审查 src/components/UserProfile.tsx:
- 检查性能问题
- 检查潜在 bug
- 检查代码规范
- 给出优化建议
1. 后台代理
让一个智能体执行长时任务,同时继续和主智能体对话:
# 启动后台任务 ulw 在后台分析整个项目的性能瓶颈,完成后告诉我
继续做其他事
ulw 帮我修复登录页面的 CSS 样式问题
2. 自定义 Skills
把固定工作流打包成技能,一键调用。
创建技能:在 .opencode/skills/ 目录下创建 SKILL.md:
— name: code-review
description: 执行完整的代码审查流程
代码审查技能
- 检查代码规范
- 检查潜在 bug
- 检查性能问题
- 生成审查报告
使用技能:
使用 code-review 技能审查本次提交的所有代码
3. 并行任务
Sisyphus 会自动并行处理可独立执行的任务:
ulw 为以下文件分别添加单元测试:
- src/utils/string.ts
- src/utils/date.ts
- src/utils/validation.ts
三个文件的测试会同时由不同的探索代理编写。
4. 模型降级策略
配置备用模型,主模型不可用时自动切换:
“fallback”: { “sisyphus”: “qwen3-coder-plus”, “oracle”: “GLM-5” }5. 缓存配置
启用缓存降低成本:
“cache”: { “enabled”: true, “ttl”: 3600 }6. 速率限制
避免 API 过载:
“rateLimit”: { “kimi”: { “requestsPerMinute”: 30 }, “zai”: { “requestsPerMinute”: 50 } }
Q1: Windows 上提示 “bunx 不是内部命令”
解决方案:使用 npx 替代(powershell):
npx oh-my-opencode@latest install
Q2: 安装后 OpenCode 中没有显示智能体
解决方案:
- 检查配置文件是否正确
- 重启 OpenCode
- 确认 OpenCode 版本 >= 1.0.150
Q3: 模型调用失败
检查步骤:
# 测试 API 连接 opencode test –provider kimi
查看已配置模型
opencode models list
Q4: 公司网络无法访问 GitHub
解决方案:
- 配置代理:
set HTTP_PROXY=http://proxy:port - 或使用国内镜像安装
Q5: 如何卸载 Oh My OpenCode
编辑 ~/.config/opencode/opencode.json,从 plugin 数组中移除 “oh-my-opencode”。
Q6: Sisyphus 不自动工作了
检查是否使用了正确的魔法词,尝试:
ulw 请继续完成未完成的任务
完整配置模板(公司中转 API)
,
"oracle": { "model": "deepseek-v3.2", "provider": "kimi", "temperature": 0.5 }, "librarian": { "model": "MiniMax/MiniMax-M2.7", "provider": "minimax", "temperature": 0.3 }, "explore": { "model": "qwen3-coder-plus", "provider": "kimi", "temperature": 0.2 }, "prometheus": { "model": "GLM-5", "provider": "zai", "temperature": 0.6 }, "multimodal-looker": { "model": "kimi-k2.5", "provider": "kimi" }, "metis": { "model": "kimi-k2.5", "provider": "kimi" }, "atlas": { "model": "deepseek-v3.2", "provider": "kimi" }
},
“categories”: {
"visual-engineering": { "model": "kimi-k2.5", "provider": "kimi" }, "ultrabrain": { "model": "deepseek-v3.2", "provider": "kimi" }, "deep": { "model": "deepseek-v3.2", "provider": "kimi" }, "quick": { "model": "qwen3-coder-plus", "provider": "kimi" }, "writing": { "model": "kimi-k2.5", "provider": "kimi" }
},
“provider”: {
"kimi": { "apiKey": "your-api-key", "baseURL": "http://your-proxy:port/v1", "models": ["kimi-k2.5", "deepseek-v3.2", "qwen3-coder-plus"] }, "zai": { "apiKey": "your-api-key", "baseURL": "http://your-proxy:port/v1", "models": ["GLM-5"] }, "minimax": { "apiKey": "your-api-key", "baseURL": "http://your-proxy:port/v1", "models": ["MiniMax/MiniMax-M2.7"] }
},
“cache”: {
"enabled": true, "ttl": 3600
} }
快速启动检查清单
- Node.js v20+ 已安装
- OpenCode 已安装 (
opencode –version) - Oh My OpenCode 已安装
- 配置文件已创建并正确填写 API Key
- 运行
opencode成功启动 - 测试
ulw 你好正常响应
Oh My OpenCode 把 AI 编程助手从“对话工具”变成了“开发伙伴”。你不是在和一个 AI 聊天,而是在指挥一个由专业智能体组成的开发团队。
掌握这套工具,你就拥有了:
- 🚀 10 倍效率:并行处理,永不等待
- 🎯 100% 完成度:不达目标不停止
- 🧠 专家级辅助:每个领域都有专属顾问
现在,启动 OpenCode,说出你的第一个 ulw 指令,体验 AI 开发团队的力量吧!
参考资料:
- Oh My OpenCode GitHub
- OpenCode 官方文档
📝 本文作者在使用公司中转模型(Kimi/GLM/MiniMax)的环境中测试通过,如有问题欢迎交流讨论。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/253053.html