Freepik/flux.1-lite-8B
Freepik
Texto a imagen
Flux.1 Lite es un modelo transformer de 8B parámetros para generación texto-a-imagen, destilado a partir de FLUX.1-dev. Está diseñado para ser más eficiente que el modelo original: usa 7 GB menos de RAM y se ejecuta un 23% más rápido manteniendo precisión bfloat16. La versión actual fue reentrenada con un dataset más diverso y prompts más largos, con mejor destilación para rangos amplios de guidance y pasos de inferencia.
Como usar
Uso con Diffusers:
import torch
from diffusers import FluxPipeline
torch_dtype = torch.bfloat16
device = "cuda"
# Load the pipe
model_id = "Freepik/flux.1-lite-8B"
pipe = FluxPipeline.from_pretrained(
model_id, torch_dtype=torch_dtype
).to(device)
# Inference
prompt = "A close-up image of a green alien with fluorescent skin in the middle of a dark purple forest"
guidance_scale = 3.5
n_steps = 28
seed = 11
with torch.inference_mode():
image = pipe(
prompt=prompt,
generator=torch.Generator(device="cpu").manual_seed(seed),
num_inference_steps=n_steps,
guidance_scale=guidance_scale,
height=1024,
width=1024,
).images[0]
image.save("output.png")
También puede usarse en ComfyUI mediante el flujo comfy/flux.1-lite_workflow.json y el checkpoint flux.1-lite-8B.safetensors.
Funcionalidades
- Generación texto-a-imagen con Diffusers y FluxPipeline.
- Modelo destilado de FLUX.1-dev con 8B parámetros.
- Menor consumo de memoria: 7 GB menos de RAM que el modelo original.
- Inferencia un 23% más rápida manteniendo precisión bfloat16.
- Recomendado usar guidance_scale entre 2.0 y 5.0.
- Recomendado usar entre 20 y 32 pasos de inferencia.
- Checkpoint Safetensors disponible para ComfyUI.
- Licencia flux-1-dev-non-commercial-license.
Casos de uso
- Crear imágenes a partir de prompts de texto con menor consumo de memoria que FLUX.1-dev.
- Ejecutar generación texto-a-imagen más rápida en entornos con GPU CUDA.
- Integrar generación visual en pipelines Python con Diffusers.
- Usar flujos de ComfyUI para producción creativa o experimentación visual.
- Generar imágenes cuadradas de alta resolución, por ejemplo 1024x1024, ajustando guidance y pasos de inferencia.