Surge (@Nyles) 在 如何让 codex 用上最新未支持的模型 gpt-5.4-mini / 让子代理不乱分配模型 中发帖
昨天出了这个模型,个人测了一下,效果非常好,开 xhigh 的时候和 5.4 high 没啥区别,那么基本上 codex 就只需要这两个模型了。
但是 codex 捣鼓半天都不支持开 5.4-mini,去看了源码才发现是官方 codex 代码里还没写进去:codex
应该是官方迟早会开的,但是现在急着用,同时也不想看到那么多冗余的模型。于是写了一份 json。
方法
想提前打开 5.4-mini 的话需要做两件事:
1:在 ~/.codex/config.toml 中添加这一行:
# 自定义 `/model` 候选目录:只保留 gpt-5.4 与 gpt-5.4-mini。
model_catalog_json = "/Users/sugeh/.codex/model_catalog.json"
2:在~/.codex 目录创建一个 model_catalog.json 文件,将...