From 06d31eb725db4c405a285391d37d4c8e088ab5b2 Mon Sep 17 00:00:00 2001 From: tukuaiai Date: Mon, 13 Apr 2026 12:55:33 +0800 Subject: [PATCH] docs: codex - bump default model to gpt-5.4 --- assets/config/.codex/config.toml | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/assets/config/.codex/config.toml b/assets/config/.codex/config.toml index 92ac62e..f0ea211 100644 --- a/assets/config/.codex/config.toml +++ b/assets/config/.codex/config.toml @@ -4,7 +4,7 @@ # - 这里填写 Codex CLI 支持的模型名(字符串)。 # - 建议写成你常用的默认模型,临时切换用命令行 `-m` 覆盖更合适。 # - 经验上:`*-codex` 更偏“写代码/改代码”,非 `*-codex` 更偏通用对话(以你实际使用体验为准)。 -model = "gpt-5.2" +model = "gpt-5.4" # 推理强度(思考深度): # - low → 更快,适合“明确指令 + 小改动” @@ -71,7 +71,7 @@ hide_rate_limit_model_nudge = true # - 当某些老模型名不可用/被迁移时,用这里的映射做自动替换。 # - 建议只保留你确实用得到的映射,避免未来产生“我没注意但被自动换了”的困惑。 "gpt-5.1-codex-max" = "gpt-5.2-codex" -"gpt-5.2" = "gpt-5.3-codex" +"gpt-5.2" = "gpt-5.4" # ==================== MCP Servers(示例,默认关闭) ==================== # 说明: