欣 郁 (@user1164)【mac跑zimage】GGUF量化后,原bf16的LoRA如何适配? 中发帖

如题,z image的底模是bf16,但mac仅支持gguf的格式量化,那么以bf16为底模的lora该如何在gguf上使用? 
我问了gemini:
方法一:先把底模+lora融合,再转化为gguf;
方法二:直接把lora也转化为gguf
我想问一下这两个方法,特别是方法二真的可以吗?我看AI说直接转化即可??
[IMG_9376]
PS:zimage真的好用——我是m4 pro 48g,1440*1024+cfg2+一个150m的lora下,可以25s/token出图,现在想问问有无更快的办法