arch 在 Falcon-H1R-7B 小尺寸但逻辑极强的模型 中发帖
TII 发布了 Falcon-H1R-7B,在这个参数量级上,推理能力有点超纲。
几个关键 Benchmark 数据:
AIME24: 88.1% (作为对比 Qwen3-8B 是 77.9%)
MATH500: 97.4%
LCBv5-v6 (Code): 68.6%
重点是它不仅分高,还支持长达 64k 的上下文(max_new_tokens 推荐),并且兼容 vLLM 和 SGLang 部署。
如果你需要一个小尺寸但逻辑极强的模型(特别是数学方向),这个值得一试.
Transformer-Mamba混合架构+DeepConf自信推理,内存能耗低到爆,完美适配边缘设备、机器人和自动驾
[image]