爱折腾的sky (@sou) 在 分享Docker部署deepseek-R1本地大模型的教程,并推荐个可以加速Hugging Face下载的项目。 中发帖
Docker部署deepseek-R1本地大模型的教程
使用docker部署OpenUI + Ollama + DeepSeek-R1:7B,通过浏览器访问OpenUI进行交互。部署完成后可以离线使用DeepSeek-R1大模型。
Ollama的DeepSeek-R1大模型官网:deepseek-r1:7b
1.5B:CPU最低4核,内存8GB+,若GPU加速可选4GB+显存,适合低资源设备部署等场景。
7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存,可用于本地开发测试等场景。
8B:硬件需求与7B相近略高,适合需更高精度的轻量级任务。
14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存,可用于企业级复杂任务等场景。
32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存,适...