狐狸二号 (@aozix) 在 2个4090,48G显存,当前哪个开源模型比较好? 中发帖
[image]
如图,服务器装了2个4090,共48G显存。
ollama跑模型的话,有2个问题:
使用qwen3还是deepseek-v3.2?
能跑多大参数的?
[image]
如图,服务器装了2个4090,共48G显存。
ollama跑模型的话,有2个问题:
使用qwen3还是deepseek-v3.2?
能跑多大参数的?