arch我思故我在,生物的一切行动都是脑神经活动的表象 中发帖

@eonsys 公布了一个demo,用12.5万个真实神经元连线,在虚拟世界里"复活"了一只果蝇。 
具体做法是把真实果蝇的大脑完整连接图,接入基于MuJoCo物理引擎的虚拟躯体。结果这只数字果蝇开始自主走路、整理身体、甚至进食——形成了完整闭环,感觉输入→神经元放电→动作输出。
这事为什么比大模型更让人震撼?
过去几年主流AI的路径是"拟合行为输出",本质上是拿海量数据训练一个像果蝇的策略网络——学它看起来像什么。
但这次逻辑变了。研究者是从生物本体出发,重建它本身是什么。没有任何行为数据的强化学习训练,当真实的生物脑结构在代码中被精确跑起来后,复杂的生物行为直接从神经连线里自然涌现出来了。
这意味着一旦神经结构足够完整,行为本身就是可计算、可复现、可嵌入身体的。一条截然不同的智能路线正在成型。
离真数字永生不远了