QuantStack/Qwen-Image-GGUF

QuantStack
Texto a imagen

Conversión directa a GGUF del modelo Qwen/Qwen-Image para generación de imágenes a partir de texto. Es una versión cuantizada del modelo original, pensada para usarse localmente en flujos como ComfyUI mediante el nodo personalizado ComfyUI-GGUF. Mantiene los términos de licencia y restricciones de uso del modelo original.

Como usar

El modelo se usa con ComfyUI mediante el nodo personalizado ComfyUI-GGUF de city96. Los archivos del modelo deben colocarse en ComfyUI/models/unet; para completar la instalación se debe seguir el README del proyecto ComfyUI-GGUF. No hay snippets de código en la página proporcionada.

Funcionalidades

Modelo de texto a imagen basado en Qwen-Image.
Formato GGUF con múltiples niveles de cuantización, desde 2 bits hasta 8 bits.
Modelo principal Qwen-Image ubicado en ComfyUI/models/unet.
Incluye referencia al codificador de texto Qwen2.5-VL-7B para ComfyUI/models/text_encoders.
Incluye VAE de Qwen-Image para ComfyUI/models/vae.
Arquitectura qwen_image con tamaño aproximado de 20B parámetros.
Compatible con prompts en inglés y chino.
Licencia Apache 2.0, conservando las restricciones del modelo original Qwen/Qwen-Image.

Casos de uso

Generación local de imágenes a partir de texto en ComfyUI.
Ejecución de Qwen-Image en formato GGUF con menor consumo de memoria mediante cuantización.
Experimentación con distintos tamaños de cuantización como Q2_K, Q4_K_M, Q6_K o Q8_0 según la memoria disponible.
Flujos creativos que requieran prompts en inglés o chino.