@stevessr 在 Penguin KV cache 服务器提供高达 3TB + 8*1TB 的内存 中发帖
https://www.01net.it/penguin-solutions-originai-factory-platform-delivers-optimized-performance-for-ai-inference/
[!quote]+
IT之家 3 月 17 日消息,Penguin Solutions 当地时间本月 16 日宣布推出业界首款采用 CXL 技术的量产型 KV Cache 服务器。其综合了 3TB 的 DDR5 系统主内存和 8 个 1TB 的 CXL 内存 AIC 模块,可为 AI 推理负载提供合计 11TB 的海量内存空间 。