Granddyser/BigLoveKlein-Collection

Granddyser
Texto a imagen

Colección de modelos FLUX.2 klein para generación de imágenes a partir de texto, publicada por Granddyser en Hugging Face. Incluye variantes en BF16, FP8, NF4 y GGUF para equilibrar calidad, velocidad y uso de VRAM, con un modelo base de 9B parámetros basado en black-forest-labs/FLUX.2-klein-base-9B.

Como usar

Instalación y uso con Diffusers:

pip install -U diffusers transformers accelerate
import torch
from diffusers import DiffusionPipeline

# switch to "mps" for apple devices
pipe = DiffusionPipeline.from_pretrained(
    "Granddyser/BigLoveKlein-Collection",
    dtype=torch.bfloat16,
    device_map="cuda"
)

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(prompt).images[0]

Uso con ComfyUI: coloca el archivo de modelo deseado en ComfyUI/models/diffusion_models/ o en la carpeta unet, y selecciónalo en el nodo de carga correspondiente.

Ejemplo específico con FluxPipeline:

from diffusers import FluxPipeline
import torch

pipe = FluxPipeline.from_pretrained(
    "Granddyser/biglove-klein2-fp8",
    torch_dtype=torch.bfloat16
)
pipe.to("cuda")

image = pipe(
    prompt="your prompt here",
    num_inference_steps=4,
    guidance_scale=0.0,
).images[0]

image.save("output.png")

Funcionalidades

Generación de imágenes texto-a-imagen con arquitectura FLUX.
Colección con varios formatos: safetensors BF16, BF16 pruned, FP8 pruned, NF4 y GGUF.
Opciones para distintos recursos de hardware: BF16 para mayor calidad, FP8 para equilibrio entre calidad y VRAM, NF4 para baja VRAM e inferencia rápida, y GGUF para cargadores compatibles.
Compatible con Diffusers, ComfyUI y aplicaciones locales como Draw Things y DiffusionBee.
No está desplegado actualmente en proveedores de inferencia de Hugging Face.

Casos de uso

Crear imágenes a partir de prompts de texto con modelos FLUX cuantizados.
Ejecutar generación de imágenes localmente en ComfyUI o Diffusers.
Elegir variantes de menor VRAM para equipos limitados usando NF4 o FP8.
Usar archivos GGUF en cargadores compatibles con ese formato.
Experimentar con una colección no comercial basada en FLUX.2-klein-base-9B.