KBlueLeaf/HDM-xut-340M-anime

KBlueLeaf
Texto a imagen

HDM-xut-340M-anime es un modelo base de texto a imagen especializado en ilustración de estilo anime. Forma parte del proyecto HDM (Home made Diffusion Model), orientado a entrenar modelos T2I en hardware de consumo o servidores económicos. Usa la arquitectura XUT (Cross-U-Transformer) y técnicas como TREAD para reducir el coste de entrenamiento, con un tamaño aproximado de 340M parámetros y soporte para generación de imágenes anime de alta resolución.

Como usar

Instalación y uso con Diffusers:

pip install -U diffusers transformers accelerate
import torch
from diffusers import DiffusionPipeline

# switch to "mps" for apple devices
pipe = DiffusionPipeline.from_pretrained(
    "KBlueLeaf/HDM-xut-340M-anime",
    dtype=torch.bfloat16,
    device_map="cuda"
)

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(prompt).images[0]

Funcionalidades

Generación de imágenes a partir de texto con estética anime.
Modelo Diffusers distribuido en formato Safetensors.
Arquitectura XUT diseñada para modelos generativos multimodales.
Entrenamiento enfocado en bajo coste computacional y hardware accesible.
Ejemplos orientados a prompts tipo Danbooru/anime con prompts negativos y parámetros de muestreo.
Compatible con uso local mediante Diffusers y aplicaciones como Draw Things y DiffusionBee.

Casos de uso

Crear ilustraciones anime desde prompts descriptivos.
Experimentar con un modelo T2I compacto para generación visual especializada.
Probar flujos locales de Diffusers para arte estilo anime.
Generar imágenes con prompts detallados, prompts negativos y parámetros de sampler similares a ComfyUI.
Investigar arquitecturas de difusión pequeñas entrenadas con presupuestos de cómputo reducidos.