Mozi (@yeahhe)【教程】通过 Ollama 部署与应用 DeepScaleR-1.5B-Preview 模型(基于DeepSeek-R1-Distilled-Qwen-1.5B 微调)的全流程指南 中发帖

部署 DeepScaleR-1.5B-Preview 模型的步骤如下: 
1. 安装 Ollama 工具
确保你已安装 ollama 工具,并正确配置了环境。
2. 选择合适的模型版本
该模型有多个版本,主要区别在于内存占用和硬件要求:

默认 fp16 版本:
使用命令

ollama run deepscaler

此版本占用约 3.6GB 内存,适合硬件配置较好的设备。

量化版本:
如果设备性能不足,建议使用量化版本,内存占用更低:

ollama run deepscaler:1.5b-preview-q8_0 占用约 1.9GB 内存
ollama run deepscaler:1.5b-preview-q4_K_M 占用约 1.1GB 内存



3. 部署命令说明
运行相应命令后,ollama 会自动拉取并部署对应版本的模型。部署后你就可以利用该模型进行推理任务了...