whatanoob 在 硅基接入 vscode copilot?yes we can 中发帖
上周 copilot 更新支持自定义 api key,我就想着把白嫖的硅基接入。发了上面帖子问了下没有立即可行的方案。
有了大胆想法就需要用 roo code 大胆的尝试,自己动手丰衣足食。
花了点时间用 ds r1/v3 撸了个 GitHub - chendotjs/ollama-proxy: ollama proxy for vscode copilot ,在 vscode github copilot: manage models 中选择 Ollama 就可以使用自定义的 llm api 。