模型:
stabilityai/sd-vae-ft-mse
这些权重旨在与 ? diffusers library 搭配使用。如果您要使用原始 CompVis Stable Diffusion codebase 的模型,请使用 come here 。
如何与?扩散器一起使用您可以将这个经过微调的 VAE 解码器集成到现有的扩散器工作流中,只需要在 StableDiffusionPipeline 中添加一个 vae 参数。
from diffusers.models import AutoencoderKL from diffusers import StableDiffusionPipeline model = "CompVis/stable-diffusion-v1-4" vae = AutoencoderKL.from_pretrained("stabilityai/sd-vae-ft-mse") pipe = StableDiffusionPipeline.from_pretrained(model, vae=vae)
我们发布了两个 kl-f8 自编码器版本,从原始的 kl-f8 autoencoder 中微调而来,采用 LAION-Aesthetics 和 LAION-Humans 的1:1比例。LAION-Humans 是一个包含仅含人类 SFW 图像的未发布子集。目的是在稳定的扩散训练集上进行微调(自编码器最初是在 OpenImages 上训练的),同时通过增加人类图像的数据集来改善面部的重建。第一个是 ft-EMA ,从原始检查点中恢复,训练了313198步,并使用 EMA 权重。它使用与原始检查点相同的损失配置(L1 + LPIPS)。第二个是 ft-MSE ,从 ft-EMA 中恢复,使用 EMA 权重,并使用不同的损失进行了另外280k步训练,更加注重 MSE 重建(MSE + 0.1 * LPIPS)。它产生了更加“平滑”的输出。两个版本的批量大小为192(16 A100,每个GPU批量大小为12)。为了保持与现有模型的兼容性,只对解码器部分进行了微调;这些检查点可以用作现有自编码器的替代品。
原始 kl-f8 VAE vs f8-ft-EMA vs f8-ft-MSE
Model | train steps | rFID | PSNR | SSIM | PSIM | Link | Comments |
---|---|---|---|---|---|---|---|
original | 246803 | 4.99 | 23.4 +/- 3.8 | 0.69 +/- 0.14 | 1.01 +/- 0.28 | 1236321 | as used in SD |
ft-EMA | 560001 | 4.42 | 23.8 +/- 3.9 | 0.69 +/- 0.13 | 0.96 +/- 0.27 | 1237321 | slightly better overall, with EMA |
ft-MSE | 840001 | 4.70 | 24.5 +/- 3.7 | 0.71 +/- 0.13 | 0.92 +/- 0.27 | 1238321 | resumed with EMA from ft-EMA, emphasis on MSE (rec. loss = MSE + 0.1 * LPIPS), smoother outputs |
Model | train steps | rFID | PSNR | SSIM | PSIM | Link | Comments |
---|---|---|---|---|---|---|---|
original | 246803 | 2.61 | 26.0 +/- 4.4 | 0.81 +/- 0.12 | 0.75 +/- 0.36 | 1236321 | as used in SD |
ft-EMA | 560001 | 1.77 | 26.7 +/- 4.8 | 0.82 +/- 0.12 | 0.67 +/- 0.34 | 1237321 | slightly better overall, with EMA |
ft-MSE | 840001 | 1.88 | 27.3 +/- 4.7 | 0.83 +/- 0.11 | 0.65 +/- 0.34 | 1238321 | resumed with EMA from ft-EMA, emphasis on MSE (rec. loss = MSE + 0.1 * LPIPS), smoother outputs |
对 COCO2017 验证数据集中的 256x256 图像的重建可视化。
256x256:ft-EMA(左),ft-MSE(中),原始(右)