Ryan Yuan (@tseshongfeeshur) 在 ollama 和它各个模型在 termux 上的效果对比 中发帖
昨天晚上用 termux 和 ollama 整了几个跑在本地的语言模型,截图是不同模型的效果(受限于设备只能运行 3b 及以下的模型,而且我不知道怎么在 ubuntu 容器里面使用 gpu 计算所以只能用 cpu 死磕…)。0.5b 是生成最快的,不过写作效果还行,理解效果有点差。
[Screenshot]