@superbug 在 本地部署大模型如何有效利用 中发帖
我是 amd7h12 ( 64h128c )+3090x2+128gbx8 用 ktransformers 跑满血版 deepseek-r1 很卡,现在用 llama.cpp 双卡跑 seed-oss-32b-q4
我是 amd7h12 ( 64h128c )+3090x2+128gbx8 用 ktransformers 跑满血版 deepseek-r1 很卡,现在用 llama.cpp 双卡跑 seed-oss-32b-q4