CarlxlxDeepseek-R1的输出窗口太少,有没有输出窗口更大的思考模型? 中发帖

本人经常用推理模型翻译,但是Deepseek-R1的输出窗口实在太小,两千tokens都不到就不会输出了。而且就算你怎么提示,他都会默认给你省略,把很长一段话变成字数少于2000tokens的总结发给你 
请问有什么推理模型的输出窗口更大吗?或者一般的模型也可以考虑。如果有地方能查所有模型的输出窗口也行
目前我就知道gemini-2.0-flash-thinking的输出窗口比较大,不过我用着感觉他不太智能,对中文的优化不太好
gork-3的推理模型我用着倒不错,不过最近服务器快被挤爆了,经常没次数用。他的API还得等几个礼拜才上线,所以这段时间就很难受
如果有能力能让deepseek-r1不省略,直接输出完整内容也行
非常感谢各位大佬[tieba_028]
最后附上我用的意译prompt,发明人:宝玉