@00000 在 ollama 本地跑大模型需要什么配置? 中发帖
本地没跑过,想看看效果,然后用两台电脑测试:
I5-8300H 32G GTX1050Ti 跑 llama 3.2 会卡死,换 qwen-coder 1.5B 一段时间蓝屏
I5-12400F 32G 6650xt llama3.2 跑着没啥问题,看日志用不了 AMD GPU,响应时间几秒到十几秒,一会儿快一会慢