Alibaba-NLP/gte-Qwen1.5-7B-instruct

Alibaba-NLP
Similitud de oraciones

Modelo de embeddings/incrustaciones de texto de Alibaba-NLP basado en Qwen1.5 7B, publicado en Hugging Face y orientado principalmente a similitud semántica de oraciones. Está integrado con `sentence-transformers` y también aparece asociado a `transformers`. En los resultados visibles del fragmento destaca por su enfoque en recuperación, STS, clasificación, clustering y reranking dentro de MTEB, con señales especialmente fuertes en tareas de recuperación factual y búsqueda semántica.

Como usar

No aparece un bloque de uso o ejemplo de inferencia en el fragmento HTML proporcionado.

Funcionalidades

Tarea principal etiquetada como `sentence-similarity`.
Modelo servido en Hugging Face con ID `Alibaba-NLP/gte-Qwen1.5-7B-instruct`.
Biblioteca principal: `sentence-transformers`.
Biblioteca adicional: `transformers`.
Basado en una variante instruct de Qwen1.5 con tamaño 7B, orientada a generar representaciones útiles para búsqueda y similitud semántica.
Incluye un `model-index` con evaluación extensa en MTEB para recuperación, STS, clasificación, clustering y reranking.
En el fragmento visible muestra resultados muy sólidos en recuperación factual, por ejemplo FEVER con `ndcg_at_10` de 93.345 y `map_at_10` de 90.917.
También presenta buen rendimiento en similitud textual, por ejemplo BIOSSES con correlaciones cercanas a 82 en Pearson y Spearman usando similitud coseno.

Casos de uso

Búsqueda semántica y recuperación de documentos con consultas en lenguaje natural.
Sistemas RAG donde la calidad de recuperación es más importante que la generación directa.
Matching de preguntas y respuestas, duplicados y FAQ, especialmente en dominios técnicos o factuales.
Cálculo de similitud entre frases para clustering, reranking o clasificación basada en embeddings.
Indexación semántica de bases documentales usando `sentence-transformers` o pipelines compatibles con `transformers`.