KBlueLeaf/HDM-xut-340M-anime
KBlueLeaf
Texto a imagen
HDM-xut-340M-anime es un modelo base de texto a imagen especializado en ilustración de estilo anime. Forma parte del proyecto HDM (Home made Diffusion Model), orientado a entrenar modelos T2I en hardware de consumo o servidores económicos. Usa la arquitectura XUT (Cross-U-Transformer) y técnicas como TREAD para reducir el coste de entrenamiento, con un tamaño aproximado de 340M parámetros y soporte para generación de imágenes anime de alta resolución.
Como usar
Instalación y uso con Diffusers:
pip install -U diffusers transformers accelerate
import torch
from diffusers import DiffusionPipeline
# switch to "mps" for apple devices
pipe = DiffusionPipeline.from_pretrained(
"KBlueLeaf/HDM-xut-340M-anime",
dtype=torch.bfloat16,
device_map="cuda"
)
prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(prompt).images[0]
Funcionalidades
- Generación de imágenes a partir de texto con estética anime.
- Modelo Diffusers distribuido en formato Safetensors.
- Arquitectura XUT diseñada para modelos generativos multimodales.
- Entrenamiento enfocado en bajo coste computacional y hardware accesible.
- Ejemplos orientados a prompts tipo Danbooru/anime con prompts negativos y parámetros de muestreo.
- Compatible con uso local mediante Diffusers y aplicaciones como Draw Things y DiffusionBee.
Casos de uso
- Crear ilustraciones anime desde prompts descriptivos.
- Experimentar con un modelo T2I compacto para generación visual especializada.
- Probar flujos locales de Diffusers para arte estilo anime.
- Generar imágenes con prompts detallados, prompts negativos y parámetros de sampler similares a ComfyUI.
- Investigar arquitecturas de difusión pequeñas entrenadas con presupuestos de cómputo reducidos.