darkstarrd 在 Qwen团队新推出的QwQ 感觉本地小参数模型终于到了一个比较舒适的水准 中发帖
阿里巴巴的QwQ
[image]
我第一感觉是oai和claude又又又又日常被打
不过这回相当出乎意料,到达了很不错的水准
ollama已经可以直接下在20G的量化版本,测试了编程、翻译、推演等,除了中文输出的速度比较慢之外,给了我一种当年sd进化到sdxl时代的感觉,不能说完美,但是已经超过了不好用的那个界限,到达了还不错的等级。
从输出上看也是用了思考链,会自己归纳总结反思,而且输出不用反复的要求继续,基本都是直接出完,如果是英文输出速度已经可以接受的水平