4165 字
21 分钟
OpenCode 入门指南

OpenCode 入门指南#

1. 前言#

OpenCode 是一款开源的终端 AI 编程助手,类似于 Claude Code 和 Gemini CLI,能够直接在终端中与大语言模型对话,完成代码编写、调试、重构等开发任务。

与传统 IDE 插件不同,OpenCode 运行在终端环境中,天然适配服务器、远程开发等场景,同时支持灵活接入多种模型提供商,让你自由选择最适合的 AI 模型。

本指南将带你从零开始完成 OpenCode 的安装与配置,熟悉日常使用方式和常用命令,并介绍 oh-my-openagent 等进阶插件,帮助你充分释放 AI 辅助编程的潜力。


2. 配置网络代理#

Node.js、OpenCode 等工具在安装过程中可能因网络原因下载缓慢甚至失败,建议先完成网络代理配置。

  1. 打开注册链接,注册一个账号:https://love.p6m6.com/#/register?code=sAkUiL1y

  2. 选择「入门精灵球」套餐,输入优惠码 耿鬼(0 元即可购买) 输入优惠码购买套餐

  3. 按页面提示下载代理软件,然后点击「导入订阅」 导入订阅

  4. 下载完成后,打开代理软件,把模式切换到「规则代理」,然后开启代理

  5. 打开浏览器访问 Google,如果能正常显示,说明代理配置成功了

  6. 终端中使用代理:打开代理软件的设置,找到「复制环境变量」相关选项,切换到 PowerShell 类型,将复制的内容粘贴到 PowerShell 终端中,之后在该终端中执行的下载操作都会走代理 复制环境变量到终端

    macOS: 终端类型选择 bashzsh,粘贴到终端(Terminal)中

    Windows(WSL 环境下): 终端类型选择 bash,粘贴到 WSL 终端中

提示: 每次打开新的终端窗口都需要重新粘贴环境变量,代理才会生效。


3. 安装#

3.1 macOS#

打开终端(Terminal),选择以下任一方式安装:

方式一:Homebrew(官方推荐)

Terminal window
brew install anomalyco/tap/opencode

方式二:一键安装脚本

Terminal window
curl -fsSL https://opencode.ai/install | bash

方式三:npm

Terminal window
npm install -g opencode-ai

3.2 Windows#

Windows 下推荐通过 WSL 使用 OpenCode,这是官方最佳体验方案。

右键开始菜单Windows PowerShell(管理员)终端(管理员)

第一步:安装 WSL

Terminal window
wsl --install

安装完成后重启计算机。重启后再次打开 PowerShell(管理员),输入以下命令完成环境初始化:

Terminal window
# 启动 WSL
wsl
# 根据提示设置用户名和密码
# 更新软件源
sudo apt update && sudo apt upgrade -y
# 安装必要依赖
sudo apt install -y curl git

第二步:安装 OpenCode

Terminal window
curl -fsSL https://opencode.ai/install | bash

3.3 验证安装#

安装完成后,运行以下命令确认是否成功:

Terminal window
opencode -v
# 输出示例:1.2.24

4. 配置#

创建并编辑配置文件:

macOS:

Terminal window
mkdir -p ~/.config/opencode && nano ~/.config/opencode/opencode.jsonc

Windows(WSL 环境下):

Terminal window
mkdir -p ~/.config/opencode && nano ~/.config/opencode/opencode.jsonc

其他编辑方式(推荐):

  • VS Code(最推荐,智能提示 + Schema 自动补全)

    Terminal window
    code ~/.config/opencode/opencode.jsonc

    前提:在 WSL 中已安装 VS Code,或在 Windows 端使用 VS Code + Remote-WSL 扩展

  • Vim

    Terminal window
    vim ~/.config/opencode/opencode.jsonc
  • 从 Windows 资源管理器直接编辑(无需进入 WSL)

    在地址栏输入 \\wsl$\Ubuntu\home\你的WSL用户名\.config\opencode(将 Ubuntu 替换为你的发行版名,如 Ubuntu-22.04),然后用记事本或 Notepad++ 打开 opencode.jsonc 编辑

填入以下内容:

{
"$schema": "https://opencode.ai/config.json",
"disabled_providers": ["google-vertex", "google-vertex-anthropic"],
"provider": {
"cpa": {
"name": "CPA",
"npm": "@ai-sdk/openai-compatible",
"options": {
"baseURL": "你的服务地址",
"apiKey": "你的 API Key"
},
"models": {
"gpt-latest": {
"name": "gpt-latest(high)",
"cost": {
"input": 2.5,
"output": 15,
"cache_read": 0.25,
"cache_write": 0,
"context_over_200k": {
"input": 5,
"output": 22.5,
"cache_read": 0.5,
"cache_write": 0,
},
},
},
"gpt-codex-latest": {
"name": "gpt-codex-latest(xhigh)",
"cost": {
"input": 1.75,
"output": 14,
"cache_read": 0.175,
"cache_write": 0,
},
},
},
}
},
"autoupdate": true,
}

提示:

  1. gpt-latest 指向最新的 GPT 模型,当前为 GPT-5.4
  2. gpt-codex-latest 指向最新的 GPT Codex 模型,当前为 GPT-5.3-codex
  3. 模型名称括号中的内容为思考量等级,可选值为 lowmediumhighxhigh。等级越高,模型能力越强,但 Token 消耗越大、响应速度越慢

5. 使用#

首先进入你的项目目录:

Terminal window
# macOS
cd ~/project
# Windows(WSL 环境下)
cd /mnt/c/Users/你的用户名/project

Windows 路径与 WSL 路径的对应关系:

Windows 路径WSL 路径
C:\/mnt/c/
D:\/mnt/d/
C:\Users\用户名\Documents/mnt/c/Users/用户名/Documents

5.1 终端模式(TUI)#

Terminal window
opencode

5.2 Web 模式#

Terminal window
opencode web

6. 常用命令#

6.1 CLI 命令(终端直接输入)#

命令说明
opencode启动 TUI 交互界面(最常用)
opencode -v显示版本号
opencode -h显示帮助信息
opencode upgrade升级到最新版本
opencode run "你的提示"非交互模式,快速执行单次任务
opencode models列出所有可用模型
opencode session list查看历史会话
opencode -s <session_id>使用指定会话
opencode serve启动无头服务器(供 Desktop / Web 连接)
opencode web启动 Web 界面
opencode stats查看 Token 使用统计

6.2 TUI 内置命令(进入界面后输入 /#

命令说明
/connect连接或切换模型提供商
/models查看并切换模型
/init初始化项目(生成 AGENTS.md)
/new新建会话
/compact手动压缩上下文
/undo撤销上一步操作
/redo重做
/share生成分享链接
/help显示所有命令

7. 进阶配置#

7.1 oh-my-openagent 插件#

7.1.1 简介#

oh-my-openagent(简称 OMO,前身为 oh-my-opencode)是 OpenCode 生态中最受欢迎的多代理插件。它将 OpenCode 从单一 AI 助手升级为一个高度自治的 AI 团队,通过 Sisyphus 主协调代理调度多个专业子代理并行工作,能够将复杂的软件工程任务自动化——几乎做到”交代任务后去喝杯咖啡,回来就完成了”。

7.1.2 核心功能#

执行模式#

Ultra Work 模式(ulw

最核心的执行模式。输入 ulw + 任务描述,所有代理同时激活,自动规划、并行执行、自我纠错,持续运行直到任务完成,无需手动干预。

Ralph Loop(/ulw-loop

自引用执行循环,与 Ultra Work 配合使用。代理会反复迭代,直到任务完全达成目标——适合需要多轮修改和验证的复杂任务。

深度初始化(/init-deep

在项目目录树中自动生成分层的 AGENTS.md 文件,为每个代理提供分层、有作用域的上下文,既节省 Token 又提升代理对项目的理解能力。

规划模式(/start-work

由 Prometheus 代理驱动的面试式规划流程。在编写任何代码之前,它会像真正的工程师一样向你提问、澄清需求、确定范围,然后生成详细的执行计划。

质量保障机制#

IntentGate(意图门控)

在分类或执行操作前,先分析用户的真实意图,防止对提示词的字面误解。

Hashline(哈希锚定编辑)

代理读取的每一行都会标记内容哈希(如 11#VK|),编辑时引用这些标记,哈希不匹配的修改会被直接拒绝,从源头防止文件损坏。据官方报告,编辑成功率从 6.7% 提升到 68.3%。

Todo Enforcer(任务强制器)

自动将偏离主线的代理拉回正轨,确保当前任务不会被遗忘或搁置。

Comment Checker(注释检查器)

阻止低质量的 AI 生成注释,确保代码注释的专业性和可读性。

工具链集成#

LSP 与 AST-Grep

  • LSP 工具:lsp_renamelsp_goto_definitionlsp_find_referenceslsp_diagnostics
  • AST-Grep:跨 25 种语言的模式感知搜索与重写

内置 MCP 服务

  • Exa — 网页搜索
  • Context7 — 官方文档查询
  • Grep.app — GitHub 代码搜索

Skill-Embedded MCPs(技能内嵌 MCP)

每个技能可携带自己的 MCP 服务器,按需启动、用完即销毁,不会占用上下文窗口。内置技能包括 playwright(浏览器自动化)、git-master(原子提交 / Rebase)、frontend-ui-ux(设计优先的 UI 开发)等。

Tmux 集成

完整的交互式终端支持,可在代理会话中运行 REPL、调试器和 TUI 应用程序。

智能模型路由

根据任务类型自动选择最合适的模型(如 Claude 做规划、GPT Codex 写代码),按类别而非具体模型分配,在节省 Token 的同时保持高效。

Claude Code 完全兼容

现有的所有 Hooks、Commands、Skills、MCPs 和插件均可直接使用,无需任何改动。

7.1.3 安装#

进入 OpenCode 终端后,直接发送以下内容让 LLM 自动完成安装:

Install and configure oh-my-opencode by following the instructions here:
https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/refs/heads/dev/docs/guide/installation.md

安装成功后,重新进入 OpenCode,默认模式变为 Sisyphus (Ultraworker) 即表示安装成功。

安装成功示例

7.1.4 配置模型#

oh-my-openagent 默认配置的模型为 GPT、Claude、Gemini 等官方模型。由于我们使用的是 CPA 提供商,需要手动修改配置文件。

编辑 oh-my-opencode 配置文件:

macOS:

Terminal window
code ~/.config/opencode/oh-my-opencode.json

Windows(WSL 环境下):

Terminal window
code ~/.config/opencode/oh-my-opencode.json

也可使用 nanovim 替代 code,编辑方式参见上方第 4 节的说明。

将内容替换为:

{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/dev/assets/oh-my-opencode.schema.json",
"agents": {
"sisyphus": {
"model": "cpa/gpt-latest",
"variant": "high"
},
"hephaestus": {
"model": "cpa/gpt-codex-latest",
"variant": "xhigh"
},
"oracle": {
"model": "cpa/gpt-latest",
"variant": "xhigh"
},
"librarian": {
"model": "cpa/gpt-codex-latest",
"variant": "high"
},
"explore": {
"model": "cpa/gpt-codex-latest",
"variant": "high"
},
"multimodal-looker": {
"model": "cpa/gpt-latest",
"variant": "high"
},
"prometheus": {
"model": "cpa/gpt-latest",
"variant": "xhigh"
},
"metis": {
"model": "cpa/gpt-latest",
"variant": "xhigh"
},
"momus": {
"model": "cpa/gpt-latest",
"variant": "xhigh"
},
"atlas": {
"model": "cpa/gpt-latest",
"variant": "high"
}
},
"categories": {
"visual-engineering": {
"model": "cpa/gpt-latest",
"variant": "high"
},
"ultrabrain": {
"model": "cpa/gpt-latest",
"variant": "xhigh"
},
"deep": {
"model": "cpa/gpt-codex-latest",
"variant": "xhigh"
},
"artistry": {
"model": "cpa/gpt-latest",
"variant": "high"
},
"quick": {
"model": "cpa/gpt-codex-latest",
"variant": "high"
},
"unspecified-low": {
"model": "cpa/gpt-codex-latest",
"variant": "high"
},
"unspecified-high": {
"model": "cpa/gpt-latest",
"variant": "high"
},
"writing": {
"model": "cpa/gpt-latest",
"variant": "high"
}
}
}

说明: 以上配置根据各代理和分类的职责特点,在两个可用模型之间做了差异化分配:需要深度推理的角色(规划、架构、审查)使用 gpt-latest + xhigh;需要深度编码的角色使用 gpt-codex-latest + xhigh;轻量搜索和快速任务使用 gpt-codex-latest + high(成本更低);通用协调和执行角色使用 gpt-latest + high

7.1.5 Agents 与 Categories 参考#

Agents(专业代理角色)#
代理名称主要职责推荐模型说明
sisyphus主协调者Claude Opus / GLM-5任务拆解、分配子代理、并行调度、驱动任务完成,所有复杂任务的入口
hephaestus自主深度编码工匠GPT-5.3-codex探索代码库、研究模式、端到端自主实现功能,擅长深度编码
prometheus战略规划师Claude Opus / GLM-5面试式规划——向用户提问、明确范围、构建详细计划后再动手
oracle架构与调试专家高推理能力模型架构决策、疑难 bug 诊断、技术方案验证
librarian知识与文档管理员通用模型代码和文档搜索、解释现有代码、生成说明文档
explore快速代码库探索者轻量快速模型快速扫描和 Grep,定位修改点、收集上下文证据
multimodal-looker多模态 / 视觉分析专家多模态模型处理图片、UI 设计稿、截图,转化为代码或建议
metis预规划分析师高推理能力模型与 Prometheus 协作,识别风险、边缘情况、依赖关系、方案权衡
momus严苛审查者 / 质量批评家高推理能力模型代码与计划审查,发现 bug、安全与性能问题
atlas执行大师 / 部署者通用模型最终集成、部署、环境配置、验证生产就绪

注意: “推荐模型”列为官方建议的理想配置。由于我们当前只接入了 CPA 提供商,实际配置中统一使用 cpa/gpt-latest

Categories(任务分类路由)#

Sisyphus 协调代理在分配任务时,会根据任务特征自动匹配以下分类,每个分类对应不同的模型和努力级别:

分类名称适用领域努力级别常见场景
visual-engineering前端、UI/UX、视觉设计高(视觉 / 多模态)构建界面、CSS、组件、设计系统
ultrabrain极难逻辑、重型架构、复杂算法极高(长思考)系统设计、分布式系统、性能关键逻辑
deep目标导向的深度问题解决中高(自主执行)端到端功能实现、深度重构、跨模块修改
artistry创意 / 非常规解决方案高(发散思考)发明新模式、巧妙优化、跳出框框的思路
quick琐碎、快速的小修改极低(最小思考)拼写错误、一行改动、快速重命名
unspecified-low未分类的简单通用任务杂项小任务、样板代码
unspecified-high未分类的重要复杂任务重要但未匹配分类的任务
writing文档、注释、README自然语言优先写文档、变更日志、博客、测试描述

除以上内置分类外,oh-my-openagent 也支持自定义分类,可根据团队需求扩展。

7.2 MCP#

MCP(Model Context Protocol,模型上下文协议)是一种标准化协议,允许 AI 模型访问外部工具和数据源。通过配置 MCP,OpenCode 可以连接本地脚本、远程知识库或专业服务,从而获得更强的能力。

在配置文件中添加 mcp 字段即可配置(macOS:~/.config/opencode/opencode.jsonc,Windows:%USERPROFILE%\.config\opencode\opencode.jsonc)。OpenCode 支持两种类型的 MCP 服务:

  • 远程(remote):连接远程 HTTP/HTTPS 端点,无需本地安装
  • 本地(local):运行本地命令或脚本作为 MCP 服务

推荐 MCP 服务#

1. Context7 — 官方文档查询

实时查询任意编程库的最新文档和代码示例,避免 AI 使用过时的 API。

{
"mcp": {
"context7": {
"type": "remote",
"url": "https://mcp.context7.com/mcp",
},
},
}

2. Grep.app — GitHub 代码搜索

搜索 GitHub 上的公开代码,快速找到真实项目中的用法和参考实现。

{
"mcp": {
"gh_grep": {
"type": "remote",
"url": "https://mcp.grep.app",
},
},
}

3. Exa — 网页搜索

让 AI 具备实时联网搜索能力,获取最新资讯和技术文章。需要 Exa API Key

{
"mcp": {
"exa": {
"type": "local",
"command": ["npx", "-y", "exa-mcp-server"],
"environment": {
"EXA_API_KEY": "你的 Exa API Key"
},
},
},
}

组合配置示例#

以上服务可同时启用,合并写入配置文件的 mcp 字段中:

{
"$schema": "https://opencode.ai/config.json",
// ... 其他配置(provider 等)
"mcp": {
"context7": {
"type": "remote",
"url": "https://mcp.context7.com/mcp",
},
"gh_grep": {
"type": "remote",
"url": "https://mcp.grep.app",
},
},
}

常用管理命令#

命令说明
opencode mcp add交互式添加 MCP 服务
opencode mcp list列出已配置的所有 MCP 服务
opencode mcp auth <名称>对指定服务进行鉴权
opencode mcp debug <名称>检查连接状态和服务健康度

提示: MCP 服务会增加上下文消耗,建议只启用当前需要的服务,避免因工具过多导致 Token 超限。

7.3 推荐技能(Skill)#

Skill 是 OpenCode 的技能插件系统,每个技能包含领域专属的指令、内嵌 MCP 服务和预设权限,安装后在相关场景中自动激活,无需手动调用。

ui-ux-pro-max — AI 驱动的 UI/UX 设计智能#

适用范围:仅限前端项目。 该技能专为前端 UI/UX 开发设计,不适用于后端、CLI 工具、数据处理等非前端场景。如果你的项目不涉及界面开发,无需安装此技能。

ui-ux-pro-max 是一款面向前端开发者的设计智能技能。当你向 AI 描述 UI 需求时,它会自动生成完整的设计系统(配色、字体、布局、风格、反模式检查),然后基于该系统输出高质量代码。

核心能力

  • 设计系统生成器:用自然语言描述项目,自动输出完整设计系统——布局模式、视觉风格、配色方案、字体组合、特效建议及反模式检查清单
  • 161 条行业推理规则:覆盖 SaaS、金融科技、电商、医疗、餐饮、游戏、Web3 等细分领域,每条规则包含推荐布局、风格优先级、色彩基调和排版建议
  • 67 种 UI 风格:Glassmorphism、Neumorphism、Brutalism、Bento Grid、Liquid Glass、Cyberpunk UI、Aurora UI 等主流与前沿风格
  • 57 组精选字体搭配:附带 Google Fonts 链接,开箱即用
  • 161 套配色方案:按产品类型匹配,确保行业适配性
  • 25 种图表类型:适用于仪表盘和数据分析场景

支持的技术栈

类别框架
Web(默认)HTML + Tailwind CSS
React 生态React、Next.js、shadcn/ui
Vue 生态Vue、Nuxt.js、Nuxt UI
其他 WebSvelte、Astro
iOSSwiftUI
AndroidJetpack Compose
跨平台React Native、Flutter

安装

前置依赖:Python 3.x

Terminal window
# 安装 CLI
npm install -g uipro-cli
# 进入项目目录后初始化(指定 opencode 作为 AI 工具)
cd /path/to/your/project
uipro init --ai opencode

使用方式

安装后无需额外操作,当你在 OpenCode 中发起 UI/UX 相关请求时(如 builddesigncreateimplementreviewfiximprove),技能会自动激活并执行以下流程:

  1. 分析你的需求,匹配产品类型和行业规则
  2. 自动生成完整设计系统(配色、字体、布局、风格)
  3. 基于设计系统生成代码,确保色彩、间距、最佳实践一致
  4. 交付前自动检查常见反模式

提示: 在提示词中注明技术栈(如”用 Next.js + shadcn/ui”),可获得更精准的代码输出。未指定时默认使用 HTML + Tailwind CSS。

OpenCode 入门指南
https://www.mihouo.com/posts/ai/opencode-入门指南/
作者
发布于
2026-04-07
许可协议
CC BY-NC-SA 4.0