害你的猪 (@zhousp666)有一台8卡单卡16G显存的服务,能跑多大的模型? 中发帖

现在用vllm搭建的Qwen/Qwen3-Coder-30B-A3B-Instruct 
主要是给部门内部十几号人日常处理公司的公文资料和写一些运维脚本
想上更大参数的