木子不是木子狸 (@Muzilee) 在 【木子狸的指北指南】11 翻译模型自部署的选择与测评 中发帖
测评基础信息
本地部署测试机器使用 Mac mini M4 16g 进行多模型翻译测试。
使用LMStudio来作为模型下载和管理的平台。
这里只是为了简洁,同时可以获取输出token数和输出时间。
边界和要求
由于是自部署模型,所以需要兼顾模型的大小和翻译能力。同时还需要考虑在一些比较长的上下文下的翻译能力。
这里有限考虑参数量较小的开源模型——16g mac最好是14b参数及以下的。
筛选了现在 ollama 上的Popular排行中的 199 个模型,排除其中带cloud标签的模型,和 14b 以上的模型还剩余 130 个。
模型筛选
▶
模型
由于一些模型较老和主要负责的功能不同,所以我选取了以下模型。
mistralai/ministral-3-3b
liquid/lfm2.5-1.2b
qwen/qwen3.5-9b (Q4_K_M)-- 慢 建议翻译一次后存储
l...