modelo TrinArt Characters stable_diffusion_v1

naclbit
Texto a imagen

trinart_characters_19.2m_stable_diffusion_v1 es un modelo basado en stable diffusion v1 entrenado con aproximadamente 19.2 millones de imágenes de estilo anime/manga (incluyendo imágenes aumentadas preprocesadas) y un ajuste fino final con unas 50,000 imágenes. Este modelo busca un equilibrio ideal entre la versatilidad del estilo artístico y la calidad anatómica dentro de las especificaciones dadas de SDv1. Esta es la misma versión 1 que se lanzó en el servicio AI Novelist/TrinArt desde principios de septiembre hasta el 14 de octubre. Actualmente estamos experimentando con el nuevo modelo Derrida en el servicio TrinArt para una mayor mejora y estabilización anatómica. Mientras tanto, ¡disfruta de este modelo probado en un servicio real!

Como usar

Hardware utilizado: 8xNVIDIA A100 40GB

Autoencoder personalizado: Se proporcionan checkpoints separados para el autoencoder KL personalizado. Como sugiere el documento de Latent Diffusion, encontramos que entrenar el autoencoder y el modelo de difusión latente por separado mejora el resultado. Debido a que el script oficial de stable diffusion no soporta la carga de otro VAE, para ejecutarlo en tu script, necesitarás sobrescribir state_dict para first_stage_model. El popular WebUI tiene el script para cargar parámetros separados de first_stage_model.

Funcionalidades

Basado en stable diffusion v1
Entrenado con aproximadamente 19.2 millones de imágenes de estilo anime/manga
Ajuste fino final con 50,000 imágenes
Equilibrio entre versatilidad artística y calidad anatómica
Compatible con servicio TrinArt

Casos de uso

Generación de imágenes de estilo anime/manga
Servicio AI Novelist/TrinArt
Experimentación con modelos de difusión latente