@milkey 在 我做了一个工具,使 Ollama 模型能够在其他程序运行,通过动态链接 GGUF 中发帖
非常简单只需要以管理员或 Root 用户身份运行,GGUF 模型文件的符号链接就会在当前运行目录下的 OllamaGGUFs 文件夹中创建。
然后,就可以使用 llama.cpp/Jan/LM Studio 之类的其他工具运行它们了。