archOllama 0.15 来了 中发帖

Ollama 0.15 来了。这次 GLM4.7 Flash 的优化挺关键,专门针对64k+的长Context降了内存占用,对显存有限的本地环境很友好。 
另外新增了ollama launch命令,支持直接跑Claude Code和Codex等代码模型。
不过这样套娃,有什么意义?
本地跑不起来全精度GLM 4.7的话,也可以看下他们的Cloud选项
[image]
[image]