AI 编程工具
OpenAI Codex CLI
OpenAI 开源终端编程代理 Codex CLI 完整教程
Codex CLI 是 OpenAI 推出的开源终端编程代理,用 Rust 编写,Apache 2.0 许可证。它把 GPT 系列模型直接带入你的终端工作流。
GitHub: github.com/openai/codex
核心特点
- Rust 编写 — 性能极高,启动快
- 完全开源 — Apache 2.0,可审计、可修改
- 默认沙箱 — 业界唯一默认启用沙箱的编程代理
- 多模型支持 — GPT-5.4、o3、o4-mini 等
安装
npm 安装
npm i -g @openai/codexHomebrew(macOS)
brew install --cask codex配置 API Key
export OPENAI_API_KEY="sk-xxxxx"或在 ~/.codex/config.toml 中配置:
[auth]
api_key = "sk-xxxxx"ChatGPT Plus/Pro/Business 订阅用户可直接用账号登录,无需单独 API Key。
基本使用
交互模式
codex进入后直接用自然语言描述任务。
带指令启动
codex "修复测试中的错误"全自动模式
codex --full-auto "运行所有测试并修复失败的"无需逐步审批,Claude 会自主完成所有操作。
CI/非交互模式
codex exec "生成 changelog"恢复上次会话
codex resume --last权限模式
Codex CLI 的权限模式更注重沙箱隔离:
| 模式 | 行为 |
|---|---|
| Read-only | 只读,所有操作需审批 |
| Auto(默认) | 可读写工作目录,目录外和网络需审批 |
| Full Access | 跨机器操作,包括网络 |
| danger-full-access | 完全无沙箱,仅限隔离环境 |
沙箱机制
这是 Codex CLI 最大的技术亮点:
macOS
使用 Apple Seatbelt 机制(sandbox-exec),动态生成沙箱策略文件,限制文件访问和网络。
Linux
三层防护:
- Landlock — 文件系统限制
- seccomp — 系统调用过滤
- Bubblewrap (bwrap) — 文件系统命名空间隔离
默认状态下,网络被关闭,写权限仅限工作区内。
调试沙箱
codex debug seatbelt # macOS
codex debug landlock # LinuxAGENTS.md
类似 Claude Code 的 CLAUDE.md,Codex 使用 AGENTS.md 文件:
# 项目规范
- 使用 TypeScript strict mode
- 测试用 Vitest
- 提交信息用英文
# 编码风格
- 函数式优于面向对象
- 优先使用 const按目录层级叠加,子目录的 AGENTS.md 会追加到父目录的。
独特功能
Web 搜索
内置第一方 Web 搜索工具,可以在编码过程中搜索文档和解决方案。
图片输入
codex "根据这个截图实现 UI"
# 然后粘贴或拖入截图MCP 支持
在 ~/.codex/config.toml 中配置 MCP 服务器:
[mcp.servers.github]
command = "npx"
args = ["-y", "@anthropic-ai/mcp-server-github"]并行 Agent
支持在同一仓库中运行多个 Codex agent,每个在隔离的 Git worktree 中工作。
模型切换
在交互模式中使用 /model 命令切换:
/model gpt-5.4-mini文件搜索
输入 @ 进行模糊文件搜索。
注入指令
Codex 运行过程中按 Enter 可以注入新指令,不需要等它完成。
支持的模型
| 模型 | 特点 |
|---|---|
| gpt-5.4(默认) | 最强通用模型 |
| gpt-5.4-mini | 更快、更便宜 |
| o3 | 推理系列,擅长复杂逻辑 |
| o4-mini | 轻量推理模型 |
| 第三方模型 | 支持任何兼容 Chat Completions API 的模型 |