@Wyrm 在 hy-mt1.5 应该是最值得本地部署的翻译模型 中发帖
最近一直在找翻译服务作为日用, 需要兼顾速度和质量, 而且要自部署和在线的两手准备, 因为之前用过在线的, 偶尔会出现网络错误的情况. 所以这次目标主要放在离线模型上
综合 考虑以下几个选择
在线:
蹭始皇的 deeplx :tieba_025:
蹭免费的模型, gpt-mini系列(不稳定)
聚合各大厂商免费的翻译api(不如 deepl)
离线:
MTransServer, 开源项目, 特点是快速和轻量
hy-mt1.5 腾讯这个专攻翻译的小模型看评分挺高的, 兼顾性能和质量
qwen 系列本地部署(模型尺寸大, 小尺寸翻译能力不如专精模型)
translate-gemma(待补充测试)
关于离线翻译质量, 我写了一个脚本来测试
使用 100 道中译英和英译中的测试题进行测试, 然后让 gemini-3-thinking 进行评分
模型采用 LMStudio 进...