善解人意屬實有點害羞 (@joegodwanggod)Immersive translator繼續調優 (gemini用戶請進) 中发帖

如果你有 gemini歡迎你讀 
如果你有 gcp 更加歡迎了
前言
snaily 大老的gemini balance 有出色的python與 重試機制
所以整體來說響應時間較慢 用時間換穩定性了
同樣的模型請求
響應在0.4 → 1.4
在翻譯的場景下這影響了開始串的時間
所以呢
在newapi 給你的 paid key 與 gcp 獨立拉出來一個模型
fast/gemini-2.0-flash-lite
然後重新定向
{
“fast/gemini-2.0-flash-lite”: “gemini-2.0-flash-lite”
}
然後改動到 immersive translator 的設定中
愉快的享受0.4秒的開串