kaze一个关于漫画翻译软件的设想 中发帖

我不是很懂漫画翻译软件,但我感觉目前的漫画翻译软件似乎主要流程似乎是 
1.用ocr把漫画中文字识别出来
2.使用翻译api翻译
3.把翻译结果重新嵌入回原图片
目前也有不少项目支持使用llm作为翻译的api。但我认为想要改进翻译质量的关键质量或许在于“上下文”?毕竟漫画与小说不同点在于漫画的“上下文”有相当一部分以图片的形式呈现。或许可以在把待翻译的纯文本发给ai的同时附上漫画的原图,来让ai对于待翻译的文字有更具体的理解,可以提升翻译质量。
对于把文字重新嵌入图片,最近l站佬友们在竞技场发现的匿名模型nano-banana的超强重绘能力或许也可以比传统方式有更好的效果?