JayXuZ 在 override使用开源代码补全模型的测试情况 中发帖
今天看到了
【分享开源】Copilot后端代理服务|本地中转服务|离线Copilot本地|FIM模型本地补全
能够实现脱离cocopilot认证的而且自带转发的方式,经过部署后发现确实可用
因此具备了完全内网环境下的copilot条件,于是测试了下override使用近期的一些开源代码补全模型的测试情况(以下模型均采用ollama部署)
使用模型
参数大小
镜像大小
代码补全情况
对话情况
llama3.2
3B
2.0GB
不支持
生成无意义的换行
qwen2.5-coder
7B
4.7GB
支持,但不按注释生成
支持,但无法读取当前文件
deepseek-coder-v2
16B
8.9GB
支持,但不按注释生成
不支持
mike/deepseek-coder-v2
16B
10GB
支持,但不按注释生成
不...