frankjoshua/FLUX.1-dev
frankjoshua
Texto a imagen
FLUX.1 [dev] es un modelo de texto a imagen basado en un transformer de flujo rectificado de 12.000 millones de parámetros. Está orientado a generar imágenes a partir de descripciones textuales, con alta calidad visual, buen seguimiento de prompts y pesos abiertos para investigación científica y flujos creativos.
Como usar
Instalación o actualización de Diffusers:
pip install -U diffusers
Ejemplo con FluxPipeline:
import torch
from diffusers import FluxPipeline
pipe = FluxPipeline.from_pretrained("black-forest-labs/FLUX.1-dev", torch_dtype=torch.bfloat16)
pipe.enable_model_cpu_offload() #save some VRAM by offloading the model to CPU. Remove this if you have enough GPU power
prompt = "A cat holding a sign that says hello world"
image = pipe(
prompt,
height=1024,
width=1024,
guidance_scale=3.5,
num_inference_steps=50,
max_sequence_length=512,
generator=torch.Generator("cpu").manual_seed(0)
).images[0]
image.save("flux-dev.png")
También se puede usar mediante la implementación de referencia del repositorio dedicado, ComfyUI para inferencia local, o APIs externas como Replicate, fal.ai, mystic.ai y bfl.ml para otros modelos FLUX.
Funcionalidades
- Generación de imágenes a partir de texto mediante Diffusers y FluxPipeline.
- Calidad de salida avanzada, presentada como segunda solo frente a FLUX.1 [pro].
- Seguimiento competitivo de instrucciones en prompts, comparable con alternativas cerradas.
- Entrenado con destilación de guía para mejorar la eficiencia.
- Pesos abiertos para investigación científica y desarrollo de flujos creativos.
- Disponible para inferencia local mediante ComfyUI con flujo de trabajo basado en nodos.
- Los resultados generados pueden usarse con fines personales, científicos y comerciales según la licencia FLUX.1 [dev] Non-Commercial License.
Casos de uso
- Crear imágenes de alta calidad a partir de prompts textuales.
- Experimentación e investigación científica con pesos abiertos de un modelo generativo avanzado.
- Desarrollo de flujos creativos personalizados para artistas y equipos visuales.
- Inferencia local en ComfyUI con workflows nodales.
- Integración en prototipos o herramientas que usen Diffusers para generación de imágenes.