狐狸二号 (@aozix)2个4090,48G显存,当前哪个开源模型比较好? 中发帖

[image] 
如图,服务器装了2个4090,共48G显存。
ollama跑模型的话,有2个问题:


使用qwen3还是deepseek-v3.2?


能跑多大参数的?