LIDD (@SNNAN) 在 测试了一下各LLM供应商的token生成速度 中发帖
最近在给浏览器插件【沉浸式翻译】挑选合适的模型。
首先网页翻译我无法忍耐慢悠悠的翻译速度,必须在短时间内翻译完毕(当然也取决于一次传多少文字),所以带思维链的模型基本上都不考虑。
叠甲:我不是只看翻译速度不看翻译质量,而是在考虑速度和质量的平衡。有时候只是简单逛个论坛,一个页面呆十几秒,真没耐心等AI过40秒才响应。这种情况在一次翻译的段落数拉高之后挺常见的,但是不拉高段落数的话又会因为缺乏上下文而翻译质量不佳。DeepSeek V3生成速度大约20-30 token/s左右,在用“意译大师”及其魔改版(比如授人以渔 —— 发挥沉浸式翻译「自定义 AI 专家」的全部威能 - 开发调优 - LINUX DO)时,由于AI要翻译两遍来达到自然地道的效果,所以每次生成的token数时长过千。这种情况下要等待30-50秒才能得到翻译结果。
为了看哪个模型的速度比较快,我(用AI)魔改了 这个...