nunchaku-ai/nunchaku-qwen-image
nunchaku-ai
Texto a imagen
Modelo de texto a imagen cuantizado por Nunchaku a partir de Qwen-Image, orientado a generar imágenes de alta calidad desde prompts de texto con especial mejora en renderizado de texto complejo. Está optimizado para inferencia eficiente con pérdida mínima de rendimiento, e incluye variantes base y versiones destiladas de 4 y 8 pasos.
Como usar
Uso con Diffusers: consultar qwen-image.py y qwen-image-lightning.py.
Uso con ComfyUI: consultar nunchaku-qwen-image.json.
Funcionalidades
- Tipo de modelo: texto a imagen
- Cuantizado desde: Qwen-Image
- Licencia: Apache-2.0
- Cuantización disponible en INT4 para GPUs no Blackwell y NVFP4 para GPUs Blackwell serie 50
- Rangos disponibles: r32 para inferencia más rápida y r128 para mayor calidad con menor velocidad
- Incluye modelos base de uso general
- Incluye variantes destiladas de 4 pasos fusionadas con Qwen-Image-Lightning-4steps-V1.0 LoRA
- Incluye variantes destiladas de 8 pasos fusionadas con Qwen-Image-Lightning-8steps-V1.1 LoRA
- Motor de inferencia: nunchaku
- Librería de cuantización: deepcompressor
- Conjunto de datos relacionado: mit-han-lab/svdquant-datasets
- Basado en el trabajo SVDQuant para modelos de difusión de 4 bits
Casos de uso
- Generación de imágenes desde descripciones textuales
- Escenas o gráficos donde el renderizado correcto de texto dentro de la imagen es importante
- Inferencia eficiente de Qwen-Image en hardware con restricciones de memoria o rendimiento
- Comparación entre variantes rápidas de 4 pasos y variantes de mejor calidad con más latencia
- Despliegues ajustados a GPU, eligiendo INT4 o NVFP4 según la arquitectura