@meeeeeContinue extension + Ollama 中发帖

以下是如何使用 Continue 扩展和 Ollama 在本地机器上运行类似于 GitHub Copilot 的体验的指南。我们需要使用两个不同的模型,一个用于聊天,另一个用于自动补全。以下说明将帮助你完成这些步骤。 
脚本 start-ollama-continue.sh 能够运行两个不同的 Ollama 服务器。第一个服务器用于聊天,第二个服务器用于自动补全。第一个服务器将在端口 11435 上运行,第二个服务器将在端口 11436 上运行。该脚本将运行两个服务器,并等待用户通过 CTRL+C 命令关闭脚本。
在启动脚本之前,你需要加载模型,例如:
ollama pull llama3 # 大小约为 5.8GB (Continue 扩展的默认模型)
ollama pull starcoder:3b # 大小约为 2.6GB (Continue 扩展的默认模型...