Oh-My-OpenCode 使用指南

Oh-My-OpenCode 使用指南blockquote 将 OpenCode 升级为多智能体协作系统 让 AI 像专家团队一样协同工作 传统 AI 编程助手的痛点 单线程工作 效率低下 容易半途而废 任务执行不彻底 只能处理简单任务 复杂需求需要人工拆解 模型选择死板 无法按场景优化 Oh My OpenCode 的解决方案 多智能体并行工作 多个 AI 同时处理不同子任务 blockquote

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 
  
    
    

将 OpenCode 升级为多智能体协作系统,让 AI 像专家团队一样协同工作


传统 AI 编程助手的痛点
  • ❌ 单线程工作,效率低下
  • ❌ 容易半途而废,任务执行不彻底
  • ❌ 只能处理简单任务,复杂需求需要人工拆解
  • ❌ 模型选择死板,无法按场景优化
Oh My OpenCode 的解决方案
  • ✅ 多智能体并行工作:多个 AI 同时处理不同子任务
  • ✅ 目标导向执行:不达目标不停止,真正的自动化
  • ✅ 专业分工:每个智能体有自己的专长领域
  • ✅ 智能调度:根据任务类别自动选择最合适的模型

一句话概括:Oh My OpenCode 把 OpenCode 从一个对话式 AI 编程工具,升级为一个多智能体、可并行、强目标导向的自动化开发系统


什么是 Sisyphus(西西弗斯)?

Sisyphus 是 Oh My OpenCode 的主编排器,负责:

  • 理解用户需求
  • 分解复杂任务
  • 调度专业智能体
  • 整合结果并持续跟进直到完成

名字来源于希腊神话,象征着永不言弃、持续推动的精神——这正是这个智能体的核心特质。

智能体架构图
 ┌─────────────────┐

 │ 你的需求输入 │ └────────┬────────┘ ▼ ┌─────────────────┐ │ Sisyphus │ ← 主编排器 │ (总指挥) │ └────────┬────────┘ │ ┌────────────────────┼────────────────────┐ ▼ ▼ ▼ 

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Prometheus │ │ Oracle │ │ Librarian │ │ (战略规划) │ │ (架构顾问) │ │ (文档专家) │ └─────────────────┘ └─────────────────┘ └─────────────────┘

 │ │ │ ▼ ▼ ▼ 

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Explore │ │ Hephaestus │ │ Atlas │ │ (代码搜索) │ │ (深度工匠) │ │ (任务指挥) │ └─────────────────┘ └─────────────────┘ └─────────────────┘

任务类别机制

你不需要指定用哪个模型,只需要描述任务类别

类别 用途 适合的模型 visual-engineering 前端开发、UI组件 多模态模型 deep 复杂重构、深度分析 推理强模型 quick 简单修复、格式调整 响应快模型 ultrabrain 高难度脑力任务 顶级模型

系统要求
项目 要求 Node.js v20 或更高版本 Bun v1.0+(可选,可用 npx 替代) Git 任意版本 操作系统 Windows / macOS / Linux
检查已安装工具
# 检查 Node.js 版本(需要 v20+) node –version

检查 Git

git –version

如果未安装 Node.js

Windows: 下载 Node.js LTS 安装包

macOS:

brew install node

Linux (Ubuntu/Debian):

curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - sudo apt-get install -y nodejs

OpenCode 是 Oh My OpenCode 的基础运行环境。

方法一:npm 安装(推荐)
# 设置官方源(避免镜像问题) npm config set registry https://registry.npmjs.org

全局安装 OpenCode

npm install -g opencode-ai@latest

方法二:官方安装脚本(Linux/macOS)
curl -fsSL https://opencode.ai/install | bash
验证安装
opencode –version

应显示 1.0.150 或更高版本

Windows 特别说明

如果遇到执行策略错误,以管理员身份运行 PowerShell:

Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser

步骤 1:安装 Bun(可选,可用 npx 替代)

macOS/Linux:

curl -fsSL https://bun.sh/install | bash

Windows (PowerShell):

powershell -c “irm https://bun.sh/install.ps1 | iex”

或通过 npm 安装:

npm install -g bun
步骤 2:运行安装
方式一:交互式安装(推荐新手)
bunx oh-my-opencode install

npx oh-my-opencode@latest install

安装程序会询问你的 AI 订阅情况,根据实际情况回答即可。

方式二:非交互式安装(已知订阅情况)
# 只有公司中转模型(Kimi、GLM) bunx oh-my-opencode install –no-tui –claude=no –openai=no –gemini=no –kimi-for-coding=yes –zai-coding-plan=yes –copilot=no
步骤 3:安装成功的标志

看到以下输出表示安装成功:

[OK] Kimi For Coding (Sisyphus/Prometheus fallback)

Model Assignment

Models auto-configured based on provider priority 

Installation complete! Run opencode to start!


场景说明

很多公司使用内部中转 API 来统一管理 AI 模型调用,例如:

  • Kimi k2.5
  • GLM-5
  • MiniMax M2.7
  • DeepSeek v3.2
  • Qwen3 Coder Plus
配置文件结构

Oh My OpenCode 有两个核心配置文件:

文件 路径 用途 主配置 /.config/opencode/opencode.json 插件加载、全局设置 模型配置 /.config/opencode/oh-my-opencode.json 智能体模型映射
配置步骤
1. 创建主配置文件
# Windows notepad ~/.config/opencode/opencode.json

macOS/Linux

vim ~/.config/opencode/opencode.json

写入内容:

{ “plugin”: [“oh-my-opencode”] }
2. 创建模型配置文件
# Windows notepad ~/.config/opencode/oh-my-opencode.json

macOS/Linux

vim ~/.config/opencode/oh-my-opencode.json

3. 配置模板(公司中转 API)
,

"oracle": { "model": "deepseek-v3.2", "provider": "kimi" }, "librarian": { "model": "MiniMax/MiniMax-M2.7", "provider": "minimax" }, "explore": { "model": "qwen3-coder-plus", "provider": "kimi" }, "prometheus": { "model": "GLM-5", "provider": "zai" }, "multimodal-looker": { "model": "kimi-k2.5", "provider": "kimi" } 

},

“categories”: {

"visual-engineering": { "model": "kimi-k2.5", "provider": "kimi" }, "ultrabrain": { "model": "deepseek-v3.2", "provider": "kimi" }, "quick": { "model": "qwen3-coder-plus", "provider": "kimi" } 

},

“provider”: {

"kimi": { "apiKey": "your-api-key", "baseURL": "http://your-proxy-server:port/v1", "models": ["kimi-k2.5", "deepseek-v3.2", "qwen3-coder-plus"] }, "zai": { "apiKey": "your-api-key", "baseURL": "http://your-proxy-server:port/v1", "models": ["GLM-5"] }, "minimax": { "apiKey": "your-api-key", "baseURL": "http://your-proxy-server:port/v1", "models": ["MiniMax/MiniMax-M2.7"] } 

} }

模型分配策略
智能体 推荐模型 原因 Sisyphus Kimi k2.5 最强模型,负责任务编排 Oracle DeepSeek v3.2 深度推理能力强 Prometheus GLM-5 规划任务,平衡性能 Librarian MiniMax M2.7 快速检索,成本低 Explore Qwen3 Coder Plus 代码搜索,响应快

核心智能体一览
智能体 角色 职责 使用场景 Sisyphus 主编排器 任务分解、调度、跟进 任何复杂任务 Prometheus 战略规划师 需求分析、计划制定 需求模糊的大项目 Oracle 架构顾问 技术决策、代码审查 架构设计、Bug调试 Librarian 文档研究员 查询文档、寻找方案 API查询、技术调研 Explore 代码搜索员 快速定位代码 代码库探索 Hephaestus 深度工匠 高质量编码 复杂重构 Atlas 任务指挥官 分发、跟踪任务 多任务并行 Metis 智慧助手 辅助决策 需要第二意见时
智能体调用方式
隐式调用(推荐)

使用 ulw 魔法词,Sisyphus 自动调度:

ulw 帮我实现一个用户登录功能
显式调用

直接 @ 某个智能体:

@oracle 帮我分析这个架构的优缺点 @librarian 查询 React 19 的新特性 @explore 找到所有使用 useState 的地方

魔法词大全
命令 效果 使用场景 ulw 或  ultrawork 满血模式:并行、深度、不停止 任何正式任务 ultrathink 深度思考模式 复杂问题分析 /ulw-loop 自循环模式 需要高完成度的任务 /ralph-loop Ralph 循环 持续改进任务
场景一:理解陌生项目
ulw 帮我分析这个项目的整体架构,画出主要模块的依赖关系图, 总结出核心业务流程和关键数据表结构。

Sisyphus 会这样做

  1. 派 Explore 扫描目录结构
  2. 派 Librarian 分析依赖文件
  3. 派 Oracle 总结架构设计
  4. 整合输出完整报告
场景二:实现新功能
ulw 实现一个深色模式切换功能,要求:

  • 使用 CSS 变量
  • 支持系统主题跟随
  • 用户偏好保存到 localStorage
  • 包含切换按钮
    场景三:代码重构
    ulw 重构 utils 目录下的所有工具函数:
  • 统一命名规范为 camelCase
  • 添加完整的 JSDoc 注释
  • 抽取重复逻辑为公共函数
  • 确保所有测试通过
    场景四:自动化测试
    加上 /ulw-loop 后,系统会持续工作直到目标达成。
    /ulw-loop 将 user-service 模块的测试覆盖率从 45% 提升到 85% 以上
    场景五:技术调研
    @librarian 调研以下内容并给出推荐方案:
  1. React 状态管理方案对比(Redux/Zustand/Jotai)
  2. 每个方案的优缺点
  3. 在我们的场景下推荐哪个
    场景六:代码审查
    @oracle 审查 src/components/UserProfile.tsx:
  • 检查性能问题
  • 检查潜在 bug
  • 检查代码规范
  • 给出优化建议

1. 后台代理

让一个智能体执行长时任务,同时继续和主智能体对话:

# 启动后台任务 ulw 在后台分析整个项目的性能瓶颈,完成后告诉我

继续做其他事

ulw 帮我修复登录页面的 CSS 样式问题

2. 自定义 Skills

把固定工作流打包成技能,一键调用。

创建技能:在 .opencode/skills/ 目录下创建 SKILL.md

— name: code-review

description: 执行完整的代码审查流程

代码审查技能

  1. 检查代码规范
  2. 检查潜在 bug
  3. 检查性能问题
  4. 生成审查报告

    使用技能

    使用 code-review 技能审查本次提交的所有代码
    3. 并行任务

    Sisyphus 会自动并行处理可独立执行的任务:

    ulw 为以下文件分别添加单元测试:
  • src/utils/string.ts
  • src/utils/date.ts
  • src/utils/validation.ts

    三个文件的测试会同时由不同的探索代理编写。

    4. 模型降级策略

    配置备用模型,主模型不可用时自动切换:

    “fallback”: { “sisyphus”: “qwen3-coder-plus”, “oracle”: “GLM-5” }
    5. 缓存配置

    启用缓存降低成本:

    “cache”: { “enabled”: true, “ttl”: 3600 }
    6. 速率限制

    避免 API 过载:

    “rateLimit”: { “kimi”: { “requestsPerMinute”: 30 }, “zai”: { “requestsPerMinute”: 50 } }

Q1: Windows 上提示 “bunx 不是内部命令”

解决方案:使用 npx 替代(powershell):

npx oh-my-opencode@latest install
Q2: 安装后 OpenCode 中没有显示智能体

解决方案

  1. 检查配置文件是否正确
  2. 重启 OpenCode
  3. 确认 OpenCode 版本 >= 1.0.150
Q3: 模型调用失败

检查步骤

# 测试 API 连接 opencode test –provider kimi

查看已配置模型

opencode models list

Q4: 公司网络无法访问 GitHub

解决方案

  • 配置代理:set HTTP_PROXY=http://proxy:port
  • 或使用国内镜像安装
Q5: 如何卸载 Oh My OpenCode

编辑 ~/.config/opencode/opencode.json,从 plugin 数组中移除 “oh-my-opencode”

Q6: Sisyphus 不自动工作了

检查是否使用了正确的魔法词,尝试:

ulw 请继续完成未完成的任务

完整配置模板(公司中转 API)
,

"oracle": { "model": "deepseek-v3.2", "provider": "kimi", "temperature": 0.5 }, "librarian": { "model": "MiniMax/MiniMax-M2.7", "provider": "minimax", "temperature": 0.3 }, "explore": { "model": "qwen3-coder-plus", "provider": "kimi", "temperature": 0.2 }, "prometheus": { "model": "GLM-5", "provider": "zai", "temperature": 0.6 }, "multimodal-looker": { "model": "kimi-k2.5", "provider": "kimi" }, "metis": { "model": "kimi-k2.5", "provider": "kimi" }, "atlas": { "model": "deepseek-v3.2", "provider": "kimi" } 

},

“categories”: {

"visual-engineering": { "model": "kimi-k2.5", "provider": "kimi" }, "ultrabrain": { "model": "deepseek-v3.2", "provider": "kimi" }, "deep": { "model": "deepseek-v3.2", "provider": "kimi" }, "quick": { "model": "qwen3-coder-plus", "provider": "kimi" }, "writing": { "model": "kimi-k2.5", "provider": "kimi" } 

},

“provider”: {

"kimi": { "apiKey": "your-api-key", "baseURL": "http://your-proxy:port/v1", "models": ["kimi-k2.5", "deepseek-v3.2", "qwen3-coder-plus"] }, "zai": { "apiKey": "your-api-key", "baseURL": "http://your-proxy:port/v1", "models": ["GLM-5"] }, "minimax": { "apiKey": "your-api-key", "baseURL": "http://your-proxy:port/v1", "models": ["MiniMax/MiniMax-M2.7"] } 

},

“cache”: {

"enabled": true, "ttl": 3600 

} }

快速启动检查清单
  • Node.js v20+ 已安装
  • OpenCode 已安装 (opencode –version)
  • Oh My OpenCode 已安装
  • 配置文件已创建并正确填写 API Key
  • 运行 opencode 成功启动
  • 测试 ulw 你好 正常响应

Oh My OpenCode 把 AI 编程助手从“对话工具”变成了“开发伙伴”。你不是在和一个 AI 聊天,而是在指挥一个由专业智能体组成的开发团队

掌握这套工具,你就拥有了:

  • 🚀 10 倍效率:并行处理,永不等待
  • 🎯 100% 完成度:不达目标不停止
  • 🧠 专家级辅助:每个领域都有专属顾问

现在,启动 OpenCode,说出你的第一个 ulw 指令,体验 AI 开发团队的力量吧!


参考资料

  • Oh My OpenCode GitHub
  • OpenCode 官方文档

📝 本文作者在使用公司中转模型(Kimi/GLM/MiniMax)的环境中测试通过,如有问题欢迎交流讨论。

小讯
上一篇 2026-04-09 21:27
下一篇 2026-04-09 21:25

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/253053.html