QuantStack/Qwen-Image-GGUF
QuantStack
Texto a imagen
Conversión directa a GGUF del modelo Qwen/Qwen-Image para generación de imágenes a partir de texto. Es una versión cuantizada del modelo original, pensada para usarse localmente en flujos como ComfyUI mediante el nodo personalizado ComfyUI-GGUF. Mantiene los términos de licencia y restricciones de uso del modelo original.
Como usar
El modelo se usa con ComfyUI mediante el nodo personalizado ComfyUI-GGUF de city96. Los archivos del modelo deben colocarse en ComfyUI/models/unet; para completar la instalación se debe seguir el README del proyecto ComfyUI-GGUF. No hay snippets de código en la página proporcionada.
Funcionalidades
- Modelo de texto a imagen basado en Qwen-Image.
- Formato GGUF con múltiples niveles de cuantización, desde 2 bits hasta 8 bits.
- Modelo principal Qwen-Image ubicado en ComfyUI/models/unet.
- Incluye referencia al codificador de texto Qwen2.5-VL-7B para ComfyUI/models/text_encoders.
- Incluye VAE de Qwen-Image para ComfyUI/models/vae.
- Arquitectura qwen_image con tamaño aproximado de 20B parámetros.
- Compatible con prompts en inglés y chino.
- Licencia Apache 2.0, conservando las restricciones del modelo original Qwen/Qwen-Image.
Casos de uso
- Generación local de imágenes a partir de texto en ComfyUI.
- Ejecución de Qwen-Image en formato GGUF con menor consumo de memoria mediante cuantización.
- Experimentación con distintos tamaños de cuantización como Q2_K, Q4_K_M, Q6_K o Q8_0 según la memoria disponible.
- Flujos creativos que requieran prompts en inglés o chino.