vibe-coding-cn/documents/01-入门指南/04-OpenCode-CLI配置.md

188 lines
3.8 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# OpenCode CLI 配置
> 免费 AI 编程助手,支持 75+ 模型,无需信用卡
OpenCode 是一个开源 AI 编程代理,支持终端、桌面应用和 IDE 扩展。无需账号即可使用免费模型。
官网:[opencode.ai](https://opencode.ai/)
---
## 安装
```bash
# 一键安装(推荐)
curl -fsSL https://opencode.ai/install | bash
# 或使用 npm
npm install -g opencode-ai
# 或使用 Homebrew (macOS/Linux)
brew install anomalyco/tap/opencode
# Windows - Scoop
scoop bucket add extras && scoop install extras/opencode
# Windows - Chocolatey
choco install opencode
```
---
## 免费模型配置
OpenCode 支持多个免费模型提供商,无需付费即可使用。
### 方式一Z.AI推荐GLM-4.7
1. 访问 [Z.AI API 控制台](https://z.ai/manage-apikey/apikey-list) 注册并创建 API Key
2. 运行 `/connect` 命令,搜索 **Z.AI**
3. 输入 API Key
4. 运行 `/models` 选择 **GLM-4.7**
```bash
opencode
# 进入后输入
/connect
# 选择 Z.AI输入 API Key
/models
# 选择 GLM-4.7
```
### 方式二MiniMaxM2.1
1. 访问 [MiniMax API 控制台](https://platform.minimax.io/login) 注册并创建 API Key
2. 运行 `/connect`,搜索 **MiniMax**
3. 输入 API Key
4. 运行 `/models` 选择 **M2.1**
### 方式三Hugging Face多种免费模型
1. 访问 [Hugging Face 设置](https://huggingface.co/settings/tokens/new?ownUserPermissions=inference.serverless.write&tokenType=fineGrained) 创建 Token
2. 运行 `/connect`,搜索 **Hugging Face**
3. 输入 Token
4. 运行 `/models` 选择 **Kimi-K2-Instruct****GLM-4.6**
### 方式四本地模型Ollama
```bash
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取模型
ollama pull llama2
```
`opencode.json` 中配置:
```json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}
```
---
## 核心命令
| 命令 | 功能 |
|:---|:---|
| `/models` | 切换模型 |
| `/connect` | 添加 API Key |
| `/init` | 初始化项目(生成 AGENTS.md |
| `/undo` | 撤销上次修改 |
| `/redo` | 重做 |
| `/share` | 分享对话链接 |
| `Tab` | 切换 Plan 模式(只规划不执行) |
---
## 让 AI 执行一切配置任务
OpenCode 的核心思维:**把所有配置任务交给 AI**。
### 示例:安装 MCP 服务器
```
帮我安装 filesystem MCP 服务器,配置到 opencode
```
### 示例:部署 GitHub 开源项目
```
克隆 https://github.com/xxx/yyy 项目,阅读 README帮我完成所有依赖安装和环境配置
```
### 示例:配置 Skills
```
阅读项目结构,为这个项目创建合适的 AGENTS.md 规则文件
```
### 示例:配置环境变量
```
检查项目需要哪些环境变量,帮我创建 .env 文件模板并说明每个变量的用途
```
### 示例:安装依赖
```
分析 package.json / requirements.txt安装所有依赖解决版本冲突
```
---
## 推荐工作流
1. **进入项目目录**
```bash
cd /path/to/project
opencode
```
2. **初始化项目**
```
/init
```
3. **切换免费模型**
```
/models
# 选择 GLM-4.7 或 MiniMax M2.1
```
4. **开始工作**
- 先用 `Tab` 切换到 Plan 模式,让 AI 规划
- 确认方案后再让 AI 执行
---
## 配置文件位置
- 全局配置:`~/.config/opencode/opencode.json`
- 项目配置:`./opencode.json`(项目根目录)
- 认证信息:`~/.local/share/opencode/auth.json`
---
## 相关资源
- [OpenCode 官方文档](https://opencode.ai/docs/)
- [GitHub 仓库](https://github.com/opencode-ai/opencode)
- [Models.dev - 模型目录](https://models.dev)