ConHeusG (@Cheng_Shuo)各位佬友沉浸式翻译用哪个模型舒服些 中发帖

选择的几款有4omini、gemini-2.0-flash、gemini-2.5-flash,想着2.5是不是比2.0质量要好些,结果发现速度比2.0好像慢,各位佬友有没有翻译质量高反应速度快的模型推荐