用 Claude Code 写代码写多了,偶尔会遇到这种情况:一个 bug 折腾了半小时,反复试了三个方案都不行,上下文越来越长,Token 越烧越多,但它就是卡在那了。这时候喷它它也只是一味的道歉,但是就是不改,开新窗口又怕浪费了之前的一些问答内容,如果这个时候能有个程序员鼓励师给予建议或者直接上手指导,那就巴适的很
正好这两天 OpenAI 官方出了个插件 codex-plugin-cc,干的就是这事——让 Claude Code 里可以直接使用 Codex,帮着审查代码、排查问题、在线 Battle,甚至接手干活。
这就相当于 OpenAI 出了一个官方的 Claude Code 的程序员鼓励师。
它能干什么?
插件装好后,会在 Claude Code 里多出几个斜杠命令:
| 命令 | 作用 |
|---|---|
/codex:review |
代码审查,查看当前没提交的改动 |
/codex:adversarial-review |
对抗性审查,专门质疑你的设计决策 |
/codex:rescue |
把任务交给 Codex 去干 |
/codex:status |
查看后台任务状态 |
/codex:result |
拿后台任务的结果 |
/codex:cancel |
取消正在跑的任务 |
核心就两个场景:让人帮你看看代码写得对不对,和让人帮你把活干了。
安装
前提是得有 Node.js 18.18 以上版本和 ChatGPT 账号(免费的也行,中转也行)。然后在 Claude Code 里依次执行:
/plugin marketplace add openai/codex-plugin-cc
/plugin install codex@openai-codex
/codex:setup
/codex:setup 会自动检测 Codex 有没有装好、有没有登录。如果提示 Codex 没装,它会问你装不装,选装就行,一行 npm install -g @openai/codex 的事。
装完还没登录的话,在 Claude Code 里直接跑:
!codex login
用 ChatGPT 账号或 API Key 登录,完事。
怎么用
场景一:Claude 卡住了,找个帮手
这是我最常用的场景。Claude Code 写着写着卡壳了,或者给出的方案总觉得哪里不对,这时候直接:
/codex:rescue 排查一下为什么这个接口返回 500
Codex 会以子智能体的方式启动,独立去调查这个问题。它能看到你的代码库,能跑命令,最后把分析结果返回来。
有时候两个 AI 的视角不一样,Claude 看不到的东西,Codex 一眼看穿了——毕竟底层模型不同,思路也不同。
如果任务比较耗时,加个 --background 让它在后台跑:
/codex:rescue --background 调查这个 flaky test 的根因
然后你继续干别的活,想起来了查一下状态:
/codex:status
/codex:result
场景二:提交前让人帮忙看看
代码写完准备提交了,让 Codex 帮你过一遍:
/codex:review
它会审查你当前所有未提交的改动,给你反馈。也可以指定跟 main 分支对比:
/codex:review --base main
如果你对自己方案心里没底,想让人专门挑毛病,用对抗性审查:
/codex:adversarial-review --base main 这个缓存和重试的设计真的靠谱吗
对抗性审查不会夸你写得好,它专门质疑你的假设、挑战你的设计决策、寻找你没考虑到的边界情况。被它喷完还站得住的代码,基本就稳了。
场景三:想省点 Token
Codex 支持不同的模型和推理强度。有些简单的任务不需要最强模型,可以用小模型快速跑:
/codex:rescue --model spark 快速修一下这个 typo
/codex:rescue --model gpt-5.4-mini --effort medium 调查下这个集成测试为什么不稳定
spark 是最快的模式,适合简单任务;effort 可以控制推理深度,low、medium、high 随你选。
配置
Codex 的配置通过 .codex/config.toml 文件管理。放在项目根目录就是项目级配置,放在 ~/.codex/ 下就是全局配置。
比如你想在某个项目里默认用小模型和高推理强度省点 token:
model = "gpt-5.4-mini"
model_reasoning_effort = "xhigh"
它会自动继承你本地 Codex CLI 的配置和登录状态,不需要额外折腾,也不用单独切到 Codex 操作,还是挺方便的。
值不值得装
有 ChatGPT 账号的话免费就能用,装一下也就两分钟。就算不用 /codex:rescue 干活,光是 /codex:review 做个提交前的代码审查,就值回票价了,免费的额度也够用。
毕竟多一双眼睛看代码,总比一个人闷头写靠谱。而且这双眼睛还是 OpenAI 的,不要白不要。
一个人走得快,两个 AI 走得远。