爱因斯坦·尼古拉 (@cxxx) 在 腾讯混元首款开源混合推理MoE模型发布,性能优异,激活参数仅13B 中发帖
[PixPin_2025-06-30_10-10-24]
过多轮测试,水平是 o1 的水平。
优点:开源,免费,对中文支持比 o1 好,参数量比 o1 小且MoE架构,所以吐Token速度快,上下文长,有 256K,比DeepSeek-R1长。
缺点:OpenAI已经迭代到 o4-mini 了,Hunyuan-A13B 才和 o1 同水平。(不过免费,还要什么自行车,上下文都比 o1 长,对写代码好)