tutrabbit感觉现在沉浸式翻译用本地 LLM 完全足够了 中发帖

以前通常是薅论坛里的各种 API 和官方的一些 API 接入到自己的 NeoAPI 里,但是多并发的话对自己的服务器性能和网络要求很大;要么就直接用官方的 API,但是官方一般都会限并发(怀念 deepseek-v3 刚出到 r1 爆火前的时间,那时官方 API 基本首字秒出、每秒 30+token、还不限并发)。 
最近尝试部署了本地 LLM,发现效果出奇地好。我的笔电是 3050ti laptop,4gbVRAM,跑的 gemma3-4b-it-qat,大部分时候都能秒出,偶尔会有 1-2s 的延迟。如果有 6gb 的显存那应该绝对可以丝滑体验了。
而且翻译质量上,其实不是阅读具有大量专业术语的文章,平时简单网上冲浪的话,只要对沉浸式翻译的默认提示词略微修改,翻译效果就很好了,起码比传统的机器翻译好多了。
[image]