LCM_Dreamshaper_v7

SimianLuo
Texto a imagen

SimianLuo/LCM_Dreamshaper_v7 es un modelo de Latent Consistency Model Pipeline que se ha destilado de Dreamshaper v7, una afinación de Stable-Diffusion v1-5 con solo 4000 iteraciones de entrenamiento (~32 horas de GPU A100). Al destilar la guía sin clasificador en la entrada del modelo, LCM puede generar imágenes de alta calidad en un tiempo de inferencia muy corto.

Como usar

Puedes probar directamente los Modelos de Consistencia Latente:

Para ejecutar el modelo tú mismo, puedes utilizar la biblioteca 🧨 Diffusers:

pip install --upgrade diffusers  # asegúrate de usar al menos diffusers >= 0.22
pip install transformers accelerate

from diffusers import DiffusionPipeline
import torch

pipe = DiffusionPipeline.from_pretrained("SimianLuo/LCM_Dreamshaper_v7")

# Para ahorrar memoria de GPU, se puede usar torch.float16, pero puede comprometer la calidad de la imagen.
pipe.to(torch_device="cuda", torch_dtype=torch.float32)

prompt = "Autorretrato, una hermosa cyborg con cabello dorado, 8k"

# Se puede configurar de 1 a 50 pasos. LCM soporta inferencia rápida incluso
num_inference_steps = 4

images = pipe(prompt=prompt, num_inference_steps=num_inference_steps, guidance_scale=8.0, lcm_origin_steps=50, output_type="pil").images

Para más información, consulta los documentos oficiales: 👉 Documentación Oficial

Funcionalidades

Generación de imágenes de alta calidad
Tiempos de inferencia muy cortos
Compatible con la biblioteca 🧨 Diffusers
Compatible con Safetensors y ONNX
Basado en arXiv: 2310.04378
Licencia MIT

Casos de uso

Generación de retratos artísticos
Creación de imágenes de ciencia ficción
Diseño de personajes con características específicas
Generación rápida de prototipos visuales