八八 (@licoba)Mac mini 适合跑什么本地模型? 中发帖

我跑了一个 llama2 ,速度好慢啊 
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'

用官方的指令,竟然花了 1 分多钟才回答完……
大家的 mac mini 跑的都是什么本地模型?感觉mini不太适合跑本地模型啊