@NextX中科院研发类脑大模型,是不是要翻天 中发帖

中科院自动化所刚扔出的“瞬悉1.0”,直接掀桌子:不用堆算力,也能跑大模型。核心就一句——它学的是人脑神经元“脉冲”那一套,不是传统Transformer的“全连接狂魔”。说人话:以前模型像全班一起吼答案,现在改成谁先举手谁发言,瞬间安静又高效。实测结果挺离谱:· 训练数据只要主流模型的2%,照样能毕业。· 推理速度直接起飞,超长文本一口气读400万Token不喘。· 能耗低到让机房空调都怀疑人生。更香的是,整套流程从算法到芯片全国产,连GPU集群都是自家孩子。团队顺手开源了70亿参数版本,760亿也开放测试,摆明车马:来抄作业,别客气。有人担心“类脑”听着玄乎?其实思路粗暴有效——把历史信息压成“记忆脉冲”,不重复翻旧账,省内存也省电费。DNA序列、法律卷宗、粒子对撞数据……这些长到让人头秃的任务,现在一块小芯片就能啃。下一步,“瞬悉2.0”已经在路上,目标直指多智能体协作和分子级模拟。 ...