Modelo de Consistencia Latente (LCM) LoRA: SSD-1B

latent-consistency
Texto a imagen

El Modelo de Consistencia Latente (LCM) LoRA: SSD-1B fue propuesto en LCM-LoRA: Un Módulo Universal de Aceleración Stable-Diffusion por Simian Luo, Yiqin Tan, Suraj Patil, Daniel Gu y otros. Es un adaptador de consistencia destilado para segmind/SSD-1B que permite reducir el número de pasos de inferencia a solo entre 2 y 8 pasos.

Como usar

LCM-LoRA es compatible con la biblioteca 🤗 Hugging Face Diffusers desde la versión v0.23.0 en adelante. Para ejecutar el modelo, primero instale la última versión de la biblioteca Diffusers, así como peft, accelerate y transformers.

pip install --upgrade pip
pip install --upgrade diffusers transformers accelerate peft

Text-to-Image

Primero, carguemos el modelo base segmind/SSD-1B. A continuación, el programador debe ser cambiado a LCMScheduler y podemos reducir el número de pasos de inferencia a solo 2-8 pasos. Asegúrese de deshabilitar guidance_scale o usar valores entre 1.0 y 2.0.

import torch
from diffusers import LCMScheduler, AutoPipelineForText2Image

model_id = "segmind/SSD-1B"
adapter_id = "latent-consistency/lcm-lora-ssd-1b"

pipe = AutoPipelineForText2Image.from_pretrained(model_id, torch_dtype=torch.float16, variant="fp16")
pipe.scheduler = LCMScheduler.from_config(pipe.scheduler.config)
pipe.to("cuda")

# cargar y fusionar lcm lora
pipe.load_lora_weights(adapter_id)
pipe.fuse_lora()

prompt = "Self-portrait oil painting, a beautiful cyborg with golden hair, 8k"

# deshabilitar guidance_scale pasando 0
image = pipe(prompt=prompt, num_inference_steps=4, guidance_scale=0).images[0]

Funcionalidades

Reducción de pasos de inferencia a solo entre 2 y 8 pasos
Compatible con la biblioteca 🤗 Hugging Face Diffusers desde la versión v0.23.0
Permite deshabilitar guidance_scale o usar valores entre 1.0 y 2.0

Casos de uso

Conversión de texto a imagen (Text-to-Image)
Conversión de imagen a imagen (Image-to-Image)
Inpainting
ControlNet
Adaptador T2I