@Kem关于 Opencode 的使用中转站的问题 中发帖

有没有比较懂 Opencode 的大佬指点一下 
公益站提供的 Codex 全家桶的中转, 在使用例如 GPT-5.4模型的时候,如果直接使用 Codex 是可以调整推理强度的
[image]
如果想要放到 Opencode 里面使用的话应该如何配置呢?
已尝试:
"variants": {
"high": {},
"low": {},
"medium": {},
"xhigh": {}
}


但是没啥用, 貌似还是用的 Medium