半岛铁盒 (@yeahow)使用 Veloera 中转 gemini-2.5-flash-nothinking 模型时速度特别慢 中发帖

我在pot中接入了 gpt-4.1(Openrouter渠道) 和 gemini-2.5-flash-nothinking (官方渠道),这两个都用自己服务器上部署的 Veloera 中转(因为pot不支持自定义参数,没法把flash模型的思考预算设置为0,所以中转一下),但和gpt-4.1相比 flash 模型速度特别慢(如下图),就像思考模型的速度一样。这是 Veloera 的bug吗? 
[image]
[image]