@tempus123 在 llama_cpp_python-0.3.16+cu130avx2-cp312-cp312-win_amd64.whl 中发帖
今天在玩ComfyUI-Qwen3-TTS,有个llama-cpp的问题,找不到对映的Windows版本,无法加载Qwen3模型,干脆自己编译一个。有点针对我自己的系统。4080S+python3.12.10+cuda13.0,自己使用已经解决这个问题了,应该对RTX40系列能最优化。佬友有需要的下载玩玩看能不能行。
网址:GitHub - errew/llama_cp-python: 自己编译备份