@iqilinnew api是否支持关闭vllm部署Qwen3模型的think模式 中发帖

vllm部署了几个Qwen3模型,想直接接到沉浸翻译上,但开think后输出有点慢,由于这几个模型有时候要think跑实验,所以没有在vllm上关闭思考模式。 不知道new api上是否支持关闭呢?