@milkey我做了一个工具,使 Ollama 模型能够在其他程序运行,通过动态链接 GGUF 中发帖

非常简单只需要以管理员或 Root 用户身份运行,GGUF 模型文件的符号链接就会在当前运行目录下的 OllamaGGUFs 文件夹中创建。 
然后,就可以使用 llama.cpp/Jan/LM Studio 之类的其他工具运行它们了。