OpenCode 入门指南
1. 前言
OpenCode 是一款开源的终端 AI 编程助手,类似于 Claude Code 和 Gemini CLI,能够直接在终端中与大语言模型对话,完成代码编写、调试、重构等开发任务。
与传统 IDE 插件不同,OpenCode 运行在终端环境中,天然适配服务器、远程开发等场景,同时支持灵活接入多种模型提供商,让你自由选择最适合的 AI 模型。
本指南将带你从零开始完成 OpenCode 的安装与配置,熟悉日常使用方式和常用命令,并介绍 oh-my-openagent 等进阶插件,帮助你充分释放 AI 辅助编程的潜力。
2. 配置网络代理
Node.js、OpenCode 等工具在安装过程中可能因网络原因下载缓慢甚至失败,建议先完成网络代理配置。
-
打开注册链接,注册一个账号:https://love.p6m6.com/#/register?code=sAkUiL1y
-
选择「入门精灵球」套餐,输入优惠码
耿鬼(0 元即可购买)
-
按页面提示下载代理软件,然后点击「导入订阅」

-
下载完成后,打开代理软件,把模式切换到「规则代理」,然后开启代理
-
打开浏览器访问 Google,如果能正常显示,说明代理配置成功了
-
终端中使用代理:打开代理软件的设置,找到「复制环境变量」相关选项,切换到
PowerShell类型,将复制的内容粘贴到 PowerShell 终端中,之后在该终端中执行的下载操作都会走代理
macOS: 终端类型选择
bash或zsh,粘贴到终端(Terminal)中Windows(WSL 环境下): 终端类型选择
bash,粘贴到 WSL 终端中
提示: 每次打开新的终端窗口都需要重新粘贴环境变量,代理才会生效。
3. 安装
3.1 macOS
打开终端(Terminal),选择以下任一方式安装:
方式一:Homebrew(官方推荐)
brew install anomalyco/tap/opencode方式二:一键安装脚本
curl -fsSL https://opencode.ai/install | bash方式三:npm
npm install -g opencode-ai3.2 Windows
Windows 下推荐通过 WSL 使用 OpenCode,这是官方最佳体验方案。
右键开始菜单 → Windows PowerShell(管理员) 或 终端(管理员)
第一步:安装 WSL
wsl --install安装完成后重启计算机。重启后再次打开 PowerShell(管理员),输入以下命令完成环境初始化:
# 启动 WSLwsl
# 根据提示设置用户名和密码
# 更新软件源sudo apt update && sudo apt upgrade -y
# 安装必要依赖sudo apt install -y curl git第二步:安装 OpenCode
curl -fsSL https://opencode.ai/install | bash3.3 验证安装
安装完成后,运行以下命令确认是否成功:
opencode -v# 输出示例:1.2.244. 配置
创建并编辑配置文件:
macOS:
mkdir -p ~/.config/opencode && nano ~/.config/opencode/opencode.jsoncWindows(WSL 环境下):
mkdir -p ~/.config/opencode && nano ~/.config/opencode/opencode.jsonc其他编辑方式(推荐):
VS Code(最推荐,智能提示 + Schema 自动补全)
Terminal window code ~/.config/opencode/opencode.jsonc前提:在 WSL 中已安装 VS Code,或在 Windows 端使用 VS Code + Remote-WSL 扩展
Vim
Terminal window vim ~/.config/opencode/opencode.jsonc从 Windows 资源管理器直接编辑(无需进入 WSL)
在地址栏输入
\\wsl$\Ubuntu\home\你的WSL用户名\.config\opencode(将Ubuntu替换为你的发行版名,如Ubuntu-22.04),然后用记事本或 Notepad++ 打开opencode.jsonc编辑
填入以下内容:
{ "$schema": "https://opencode.ai/config.json", "disabled_providers": ["google-vertex", "google-vertex-anthropic"], "provider": { "cpa": { "name": "CPA", "npm": "@ai-sdk/openai-compatible", "options": { "baseURL": "你的服务地址", "apiKey": "你的 API Key" }, "models": { "gpt-latest": { "name": "gpt-latest(high)", "cost": { "input": 2.5, "output": 15, "cache_read": 0.25, "cache_write": 0, "context_over_200k": { "input": 5, "output": 22.5, "cache_read": 0.5, "cache_write": 0, }, }, }, "gpt-codex-latest": { "name": "gpt-codex-latest(xhigh)", "cost": { "input": 1.75, "output": 14, "cache_read": 0.175, "cache_write": 0, }, }, }, } }, "autoupdate": true,}提示:
gpt-latest指向最新的 GPT 模型,当前为 GPT-5.4gpt-codex-latest指向最新的 GPT Codex 模型,当前为 GPT-5.3-codex- 模型名称括号中的内容为思考量等级,可选值为
low、medium、high、xhigh。等级越高,模型能力越强,但 Token 消耗越大、响应速度越慢
5. 使用
首先进入你的项目目录:
# macOScd ~/project
# Windows(WSL 环境下)cd /mnt/c/Users/你的用户名/projectWindows 路径与 WSL 路径的对应关系:
| Windows 路径 | WSL 路径 |
|---|---|
C:\ | /mnt/c/ |
D:\ | /mnt/d/ |
C:\Users\用户名\Documents | /mnt/c/Users/用户名/Documents |
5.1 终端模式(TUI)
opencode5.2 Web 模式
opencode web6. 常用命令
6.1 CLI 命令(终端直接输入)
| 命令 | 说明 |
|---|---|
opencode | 启动 TUI 交互界面(最常用) |
opencode -v | 显示版本号 |
opencode -h | 显示帮助信息 |
opencode upgrade | 升级到最新版本 |
opencode run "你的提示" | 非交互模式,快速执行单次任务 |
opencode models | 列出所有可用模型 |
opencode session list | 查看历史会话 |
opencode -s <session_id> | 使用指定会话 |
opencode serve | 启动无头服务器(供 Desktop / Web 连接) |
opencode web | 启动 Web 界面 |
opencode stats | 查看 Token 使用统计 |
6.2 TUI 内置命令(进入界面后输入 /)
| 命令 | 说明 |
|---|---|
/connect | 连接或切换模型提供商 |
/models | 查看并切换模型 |
/init | 初始化项目(生成 AGENTS.md) |
/new | 新建会话 |
/compact | 手动压缩上下文 |
/undo | 撤销上一步操作 |
/redo | 重做 |
/share | 生成分享链接 |
/help | 显示所有命令 |
7. 进阶配置
7.1 oh-my-openagent 插件
7.1.1 简介
oh-my-openagent(简称 OMO,前身为 oh-my-opencode)是 OpenCode 生态中最受欢迎的多代理插件。它将 OpenCode 从单一 AI 助手升级为一个高度自治的 AI 团队,通过 Sisyphus 主协调代理调度多个专业子代理并行工作,能够将复杂的软件工程任务自动化——几乎做到”交代任务后去喝杯咖啡,回来就完成了”。
7.1.2 核心功能
执行模式
Ultra Work 模式(ulw)
最核心的执行模式。输入 ulw + 任务描述,所有代理同时激活,自动规划、并行执行、自我纠错,持续运行直到任务完成,无需手动干预。
Ralph Loop(/ulw-loop)
自引用执行循环,与 Ultra Work 配合使用。代理会反复迭代,直到任务完全达成目标——适合需要多轮修改和验证的复杂任务。
深度初始化(/init-deep)
在项目目录树中自动生成分层的 AGENTS.md 文件,为每个代理提供分层、有作用域的上下文,既节省 Token 又提升代理对项目的理解能力。
规划模式(/start-work)
由 Prometheus 代理驱动的面试式规划流程。在编写任何代码之前,它会像真正的工程师一样向你提问、澄清需求、确定范围,然后生成详细的执行计划。
质量保障机制
IntentGate(意图门控)
在分类或执行操作前,先分析用户的真实意图,防止对提示词的字面误解。
Hashline(哈希锚定编辑)
代理读取的每一行都会标记内容哈希(如 11#VK|),编辑时引用这些标记,哈希不匹配的修改会被直接拒绝,从源头防止文件损坏。据官方报告,编辑成功率从 6.7% 提升到 68.3%。
Todo Enforcer(任务强制器)
自动将偏离主线的代理拉回正轨,确保当前任务不会被遗忘或搁置。
Comment Checker(注释检查器)
阻止低质量的 AI 生成注释,确保代码注释的专业性和可读性。
工具链集成
LSP 与 AST-Grep
- LSP 工具:
lsp_rename、lsp_goto_definition、lsp_find_references、lsp_diagnostics - AST-Grep:跨 25 种语言的模式感知搜索与重写
内置 MCP 服务
- Exa — 网页搜索
- Context7 — 官方文档查询
- Grep.app — GitHub 代码搜索
Skill-Embedded MCPs(技能内嵌 MCP)
每个技能可携带自己的 MCP 服务器,按需启动、用完即销毁,不会占用上下文窗口。内置技能包括 playwright(浏览器自动化)、git-master(原子提交 / Rebase)、frontend-ui-ux(设计优先的 UI 开发)等。
Tmux 集成
完整的交互式终端支持,可在代理会话中运行 REPL、调试器和 TUI 应用程序。
智能模型路由
根据任务类型自动选择最合适的模型(如 Claude 做规划、GPT Codex 写代码),按类别而非具体模型分配,在节省 Token 的同时保持高效。
Claude Code 完全兼容
现有的所有 Hooks、Commands、Skills、MCPs 和插件均可直接使用,无需任何改动。
7.1.3 安装
进入 OpenCode 终端后,直接发送以下内容让 LLM 自动完成安装:
Install and configure oh-my-opencode by following the instructions here:https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/refs/heads/dev/docs/guide/installation.md安装成功后,重新进入 OpenCode,默认模式变为 Sisyphus (Ultraworker) 即表示安装成功。

7.1.4 配置模型
oh-my-openagent 默认配置的模型为 GPT、Claude、Gemini 等官方模型。由于我们使用的是 CPA 提供商,需要手动修改配置文件。
编辑 oh-my-opencode 配置文件:
macOS:
code ~/.config/opencode/oh-my-opencode.jsonWindows(WSL 环境下):
code ~/.config/opencode/oh-my-opencode.json也可使用
nano或vim替代code,编辑方式参见上方第 4 节的说明。
将内容替换为:
{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/dev/assets/oh-my-opencode.schema.json", "agents": { "sisyphus": { "model": "cpa/gpt-latest", "variant": "high" }, "hephaestus": { "model": "cpa/gpt-codex-latest", "variant": "xhigh" }, "oracle": { "model": "cpa/gpt-latest", "variant": "xhigh" }, "librarian": { "model": "cpa/gpt-codex-latest", "variant": "high" }, "explore": { "model": "cpa/gpt-codex-latest", "variant": "high" }, "multimodal-looker": { "model": "cpa/gpt-latest", "variant": "high" }, "prometheus": { "model": "cpa/gpt-latest", "variant": "xhigh" }, "metis": { "model": "cpa/gpt-latest", "variant": "xhigh" }, "momus": { "model": "cpa/gpt-latest", "variant": "xhigh" }, "atlas": { "model": "cpa/gpt-latest", "variant": "high" } }, "categories": { "visual-engineering": { "model": "cpa/gpt-latest", "variant": "high" }, "ultrabrain": { "model": "cpa/gpt-latest", "variant": "xhigh" }, "deep": { "model": "cpa/gpt-codex-latest", "variant": "xhigh" }, "artistry": { "model": "cpa/gpt-latest", "variant": "high" }, "quick": { "model": "cpa/gpt-codex-latest", "variant": "high" }, "unspecified-low": { "model": "cpa/gpt-codex-latest", "variant": "high" }, "unspecified-high": { "model": "cpa/gpt-latest", "variant": "high" }, "writing": { "model": "cpa/gpt-latest", "variant": "high" } }}说明: 以上配置根据各代理和分类的职责特点,在两个可用模型之间做了差异化分配:需要深度推理的角色(规划、架构、审查)使用
gpt-latest+xhigh;需要深度编码的角色使用gpt-codex-latest+xhigh;轻量搜索和快速任务使用gpt-codex-latest+high(成本更低);通用协调和执行角色使用gpt-latest+high。
7.1.5 Agents 与 Categories 参考
Agents(专业代理角色)
| 代理名称 | 主要职责 | 推荐模型 | 说明 |
|---|---|---|---|
| sisyphus | 主协调者 | Claude Opus / GLM-5 | 任务拆解、分配子代理、并行调度、驱动任务完成,所有复杂任务的入口 |
| hephaestus | 自主深度编码工匠 | GPT-5.3-codex | 探索代码库、研究模式、端到端自主实现功能,擅长深度编码 |
| prometheus | 战略规划师 | Claude Opus / GLM-5 | 面试式规划——向用户提问、明确范围、构建详细计划后再动手 |
| oracle | 架构与调试专家 | 高推理能力模型 | 架构决策、疑难 bug 诊断、技术方案验证 |
| librarian | 知识与文档管理员 | 通用模型 | 代码和文档搜索、解释现有代码、生成说明文档 |
| explore | 快速代码库探索者 | 轻量快速模型 | 快速扫描和 Grep,定位修改点、收集上下文证据 |
| multimodal-looker | 多模态 / 视觉分析专家 | 多模态模型 | 处理图片、UI 设计稿、截图,转化为代码或建议 |
| metis | 预规划分析师 | 高推理能力模型 | 与 Prometheus 协作,识别风险、边缘情况、依赖关系、方案权衡 |
| momus | 严苛审查者 / 质量批评家 | 高推理能力模型 | 代码与计划审查,发现 bug、安全与性能问题 |
| atlas | 执行大师 / 部署者 | 通用模型 | 最终集成、部署、环境配置、验证生产就绪 |
注意: “推荐模型”列为官方建议的理想配置。由于我们当前只接入了 CPA 提供商,实际配置中统一使用
cpa/gpt-latest。
Categories(任务分类路由)
Sisyphus 协调代理在分配任务时,会根据任务特征自动匹配以下分类,每个分类对应不同的模型和努力级别:
| 分类名称 | 适用领域 | 努力级别 | 常见场景 |
|---|---|---|---|
| visual-engineering | 前端、UI/UX、视觉设计 | 高(视觉 / 多模态) | 构建界面、CSS、组件、设计系统 |
| ultrabrain | 极难逻辑、重型架构、复杂算法 | 极高(长思考) | 系统设计、分布式系统、性能关键逻辑 |
| deep | 目标导向的深度问题解决 | 中高(自主执行) | 端到端功能实现、深度重构、跨模块修改 |
| artistry | 创意 / 非常规解决方案 | 高(发散思考) | 发明新模式、巧妙优化、跳出框框的思路 |
| quick | 琐碎、快速的小修改 | 极低(最小思考) | 拼写错误、一行改动、快速重命名 |
| unspecified-low | 未分类的简单通用任务 | 低 | 杂项小任务、样板代码 |
| unspecified-high | 未分类的重要复杂任务 | 高 | 重要但未匹配分类的任务 |
| writing | 文档、注释、README | 自然语言优先 | 写文档、变更日志、博客、测试描述 |
除以上内置分类外,oh-my-openagent 也支持自定义分类,可根据团队需求扩展。
7.2 MCP
MCP(Model Context Protocol,模型上下文协议)是一种标准化协议,允许 AI 模型访问外部工具和数据源。通过配置 MCP,OpenCode 可以连接本地脚本、远程知识库或专业服务,从而获得更强的能力。
在配置文件中添加 mcp 字段即可配置(macOS:~/.config/opencode/opencode.jsonc,Windows:%USERPROFILE%\.config\opencode\opencode.jsonc)。OpenCode 支持两种类型的 MCP 服务:
- 远程(remote):连接远程 HTTP/HTTPS 端点,无需本地安装
- 本地(local):运行本地命令或脚本作为 MCP 服务
推荐 MCP 服务
1. Context7 — 官方文档查询
实时查询任意编程库的最新文档和代码示例,避免 AI 使用过时的 API。
{ "mcp": { "context7": { "type": "remote", "url": "https://mcp.context7.com/mcp", }, },}2. Grep.app — GitHub 代码搜索
搜索 GitHub 上的公开代码,快速找到真实项目中的用法和参考实现。
{ "mcp": { "gh_grep": { "type": "remote", "url": "https://mcp.grep.app", }, },}3. Exa — 网页搜索
让 AI 具备实时联网搜索能力,获取最新资讯和技术文章。需要 Exa API Key。
{ "mcp": { "exa": { "type": "local", "command": ["npx", "-y", "exa-mcp-server"], "environment": { "EXA_API_KEY": "你的 Exa API Key" }, }, },}组合配置示例
以上服务可同时启用,合并写入配置文件的 mcp 字段中:
{ "$schema": "https://opencode.ai/config.json", // ... 其他配置(provider 等) "mcp": { "context7": { "type": "remote", "url": "https://mcp.context7.com/mcp", }, "gh_grep": { "type": "remote", "url": "https://mcp.grep.app", }, },}常用管理命令
| 命令 | 说明 |
|---|---|
opencode mcp add | 交互式添加 MCP 服务 |
opencode mcp list | 列出已配置的所有 MCP 服务 |
opencode mcp auth <名称> | 对指定服务进行鉴权 |
opencode mcp debug <名称> | 检查连接状态和服务健康度 |
提示: MCP 服务会增加上下文消耗,建议只启用当前需要的服务,避免因工具过多导致 Token 超限。
7.3 推荐技能(Skill)
Skill 是 OpenCode 的技能插件系统,每个技能包含领域专属的指令、内嵌 MCP 服务和预设权限,安装后在相关场景中自动激活,无需手动调用。
ui-ux-pro-max — AI 驱动的 UI/UX 设计智能
适用范围:仅限前端项目。 该技能专为前端 UI/UX 开发设计,不适用于后端、CLI 工具、数据处理等非前端场景。如果你的项目不涉及界面开发,无需安装此技能。
ui-ux-pro-max 是一款面向前端开发者的设计智能技能。当你向 AI 描述 UI 需求时,它会自动生成完整的设计系统(配色、字体、布局、风格、反模式检查),然后基于该系统输出高质量代码。
核心能力
- 设计系统生成器:用自然语言描述项目,自动输出完整设计系统——布局模式、视觉风格、配色方案、字体组合、特效建议及反模式检查清单
- 161 条行业推理规则:覆盖 SaaS、金融科技、电商、医疗、餐饮、游戏、Web3 等细分领域,每条规则包含推荐布局、风格优先级、色彩基调和排版建议
- 67 种 UI 风格:Glassmorphism、Neumorphism、Brutalism、Bento Grid、Liquid Glass、Cyberpunk UI、Aurora UI 等主流与前沿风格
- 57 组精选字体搭配:附带 Google Fonts 链接,开箱即用
- 161 套配色方案:按产品类型匹配,确保行业适配性
- 25 种图表类型:适用于仪表盘和数据分析场景
支持的技术栈
| 类别 | 框架 |
|---|---|
| Web(默认) | HTML + Tailwind CSS |
| React 生态 | React、Next.js、shadcn/ui |
| Vue 生态 | Vue、Nuxt.js、Nuxt UI |
| 其他 Web | Svelte、Astro |
| iOS | SwiftUI |
| Android | Jetpack Compose |
| 跨平台 | React Native、Flutter |
安装
前置依赖:Python 3.x
# 安装 CLInpm install -g uipro-cli
# 进入项目目录后初始化(指定 opencode 作为 AI 工具)cd /path/to/your/projectuipro init --ai opencode使用方式
安装后无需额外操作,当你在 OpenCode 中发起 UI/UX 相关请求时(如 build、design、create、implement、review、fix、improve),技能会自动激活并执行以下流程:
- 分析你的需求,匹配产品类型和行业规则
- 自动生成完整设计系统(配色、字体、布局、风格)
- 基于设计系统生成代码,确保色彩、间距、最佳实践一致
- 交付前自动检查常见反模式
提示: 在提示词中注明技术栈(如”用 Next.js + shadcn/ui”),可获得更精准的代码输出。未指定时默认使用 HTML + Tailwind CSS。