牛牛 (@okkusinn)是不是以后想私有化部署满血开源模型越来越难了? 中发帖

deepseekv4 pro 862B参数,GLM5.1 754B参数,kimi 2.6 1.1T的参数。像千问这种397B的是不是以后就不会有了。 
想在公司八卡L20上部署一下算了一下量化后都很难部署上去。部署成本太高了,qwen3.6的满参数迟迟不发布感觉L20真是废了。