下次再说 (@yourgold) 在 3070 8g显存适合运行ollama什么模型 中发帖
几个月曾经下载过ollama本地运行大模型。能够成功运行,但是现在ollama版本升级后,反而发现运行不了。换其他的小模型也不行。都是提示内存不够。
ollama -v
ollama version is 0.10.1
ollama run qwen3:4b
Error: 500 Internal Server Error: llama runner process has terminated: error loading model: unable to allocate CUDA0 buffer
ollama run qwen3:0.6b
Error: 500 Internal Server Error: llama runner process has terminated: error loading model: unable to allocate CUDA0 b...