OpenAI_Q-StarBlackwell Ultra DGX SuperPod 中发帖

老黄 发布这款可达160TB HBM3e 
不可能有模型填满吧 流传原始GPT 4 (8x220B)MoE 只占十分一二?
如何用尽160TB。 。 。