欣 郁 (@user1164)本人开发的小工具:Z-Fusion,一站式让小显存电脑跑z image+lora! 中发帖

Z image turbo因其尺寸小、真实性高、出图快的特点,一上线便获得大量摄取支持,ai-toolkit也第一时间支持了lora——比如仙x云等云服务商,只需付出较低的学习成本和价格(大概10元),就能用ai-toolkit炼制一个不错的lora。 
但是问题来了,小显存电脑只能使用量化模型,如mac等更是不支持FP8,只能转化为gguf后再量化(参见https://linux.do/t/topic/1239026),而量化后则无法动态加载 LoRA(或效果差)
我开发的Z-Fusion就是为了解决这个问题,用“先合并,后量化”的思路,即:
bf16底模+bf16lora融合→转化为gguf→量化→小显存机器跑
GUI界面,操作简单,一站式解决问题:
[zfusion]
中间修复了一些ai-toolkit生成的lora的兼容问题。
快给我一个star!!
注1:本项目中...