JayXuZoverride搭配qwen2.5-coder:32b 中发帖

override 使用开源代码补全模型的测试情况 - 资源荟萃 - LINUX DO 
上一个帖子中尝试了各类开源模型本地部署情况下搭配 override 实现 github copilot 平替的方案,主要是为了离线开发能够用上比 continue.dev 仅仅是行级补全更好的方案
在今天更新了 qwen2.5-coder:32b 之后赶紧来尝试补全效果
使用的是 ollama 中 32B 默认的
32b-base-q4_K_M 量化模型
还是跟之前一样尝试在 1000 行代码中插入的注释看能否正常补全
[image]
可以看到,虽然代码不够准确优雅,但是达到了可用级别,不会出现之前脑补过度生成注释之外的内容了,模型内存是 20G,实际运行占用如下,大概在 24.3G 左右
[image]
大家有条件的可以尝试qwen2.5-coder:32b在内网搭建代码补全服务了 ...