模型:
stabilityai/sd-vae-ft-ema
这些权重设计用于与 ? diffusers library 一起使用。如果您要使用原始的 CompVis Stable Diffusion codebase 模型,则使用 come here 。
如何与?扩散器一起使用您可以将此经过微调的VAE解码器集成到现有的扩散器工作流中,通过在 StableDiffusionPipeline 中包含一个 vae 参数。
from diffusers.models import AutoencoderKL from diffusers import StableDiffusionPipeline model = "CompVis/stable-diffusion-v1-4" vae = AutoencoderKL.from_pretrained("stabilityai/sd-vae-ft-ema") pipe = StableDiffusionPipeline.from_pretrained(model, vae=vae)
我们发布了两个kl-f8自动编码器版本,从原始的 kl-f8 autoencoder 经过微调,使用 LAION-Aesthetics 和 LAION-Humans 的1:1比例,其中包含仅包含人体的SFW图像。目的是在Stable Diffusion训练集上进行微调(自动编码器最初是在OpenImages上训练的),同时通过图像人数增加数据集,改善面部重建。第一个是 ft-EMA,从原始检查点恢复,经过313198步训练,并使用EMA权重。它使用与原始检查点相同的损失配置(L1 + LPIPS)。第二个是 ft-MSE,它从 ft-EMA 恢复,并使用EMA权重,经过额外的280k步使用不同的损失进行训练,更加强调MSE重建(MSE + 0.1 * LPIPS)。它产生了一些“更平滑”的输出。两个版本的批量大小都为192(16个A100,每个GPU的批量大小为12)。为了保持与现有模型的兼容性,只对解码器部分进行了微调;检查点可以用作现有自动编码器的替代品。
原始 kl-f8 VAE vs f8-ft-EMA vs f8-ft-MSE
Model | train steps | rFID | PSNR | SSIM | PSIM | Link | Comments |
---|---|---|---|---|---|---|---|
original | 246803 | 4.99 | 23.4 +/- 3.8 | 0.69 +/- 0.14 | 1.01 +/- 0.28 | 1236321 | as used in SD |
ft-EMA | 560001 | 4.42 | 23.8 +/- 3.9 | 0.69 +/- 0.13 | 0.96 +/- 0.27 | 1237321 | slightly better overall, with EMA |
ft-MSE | 840001 | 4.70 | 24.5 +/- 3.7 | 0.71 +/- 0.13 | 0.92 +/- 0.27 | 1238321 | resumed with EMA from ft-EMA, emphasis on MSE (rec. loss = MSE + 0.1 * LPIPS), smoother outputs |
Model | train steps | rFID | PSNR | SSIM | PSIM | Link | Comments |
---|---|---|---|---|---|---|---|
original | 246803 | 2.61 | 26.0 +/- 4.4 | 0.81 +/- 0.12 | 0.75 +/- 0.36 | 1236321 | as used in SD |
ft-EMA | 560001 | 1.77 | 26.7 +/- 4.8 | 0.82 +/- 0.12 | 0.67 +/- 0.34 | 1237321 | slightly better overall, with EMA |
ft-MSE | 840001 | 1.88 | 27.3 +/- 4.7 | 0.83 +/- 0.11 | 0.65 +/- 0.34 | 1238321 | resumed with EMA from ft-EMA, emphasis on MSE (rec. loss = MSE + 0.1 * LPIPS), smoother outputs |
对来自COCO2017验证数据集的256x256图像的重建可视化。
256x256:ft-EMA(左),ft-MSE(中),原始(右)