Carlxlx最适合沉浸式翻译的模型:火山方舟(字节)的Deepseek-V3 中发帖

还在为公益站一天到晚爆炸而苦恼?还是说API二道贩子延迟爆炸,你都把原文读完了他还没给你翻译过来? 
在这里推荐火山方舟(字节)的Deepseek-V3模型[tieba_013]
优势:

50万token的免费额度,足够使用一段时间的,我这里用了好几天连一万都没用完;免费额度之外使用Deepseek原价充值即可
使用字节自家服务器,延迟低稳定不转圈圈(不像Deepseek官方API,卡的要死还经常爆炸)
使用简单,两分钟解决问题

使用方法:

打开火山方舟控制台网站 https://console.volcengine.com/
使用手机号登录(后面需要实名验证,我忘了啥时候了)
进入后,在左侧找到”在线推理“,点击进入后选择中间的”创建推理接入点“,在创建界面中名字随便填,模型注意,要选择”Deepseek“分组的Deepseek-V3(Deepseek-R1太慢,不适合沉浸式...