Megasoft (@zhong_little)一点模型体验记录 中发帖

第一次见模型输出拉满了,用的硅基 deepseek 模型,让输出几个 emoji 结果就吃了炫迈停不下来了,看日志应该是吐到 4k 截断了: 
[image]
[image]

另外发现 github models 的 meta-llama-3.1-405b-instruct 模型在流式回复的时候容易产生乱码,非流响应则正常。
[image]
[image]
[image]