e5-base-v2-gguf
Embeddings de texto por medio de preentrenamiento contrastivo débilmente supervisado. Liang Wang, Nan Yang, Xiaolong Huang, Binxing Jiao, Linjun Yang, Daxin Jiang, Rangan Majumder, Furu Wei, arXiv 2022. Este modelo tiene 12 capas y el tamaño de embebido es de 768. Este repositorio contiene archivos en formato GGUF para el modelo de embebido e5-base-v2. Estos archivos fueron convertidos y cuantificados con llama.cpp PR 5500, commit 34aa045de, en una tarjeta RTX 4090 de consumo. Este modelo soporta hasta 512 tokens de contexto.
Como usar
Ejemplo de Uso con llama.cpp
./embedding -ngl 99 -m [filepath-to-gguf].gguf -p 'search_query: What is TSNE?'
Puedes enviar un lote de textos para incrustar, siempre y cuando el número total de tokens no exceda la longitud del contexto. Solo se muestran las tres primeras embebiciones en el ejemplo.
texts.txt:
search_query: What is TSNE?
search_query: Who is Laurens Van der Maaten?
Computar múltiples embebiciones:
./embedding -ngl 99 -m [filepath-to-gguf].gguf -f texts.txt
Ejemplo de Uso con LM Studio
Descargue la versión beta 0.2.19 desde aquí: Windows MacOS Linux
Una vez instalado, abra la aplicación. La página de inicio debería verse así:
Busque 'ChristianAzinn' en la barra de búsqueda principal o vaya a la pestaña 'Search' en el menú de la izquierda y busque el nombre allí.
Seleccione su modelo de los que aparecen (este ejemplo utiliza bge-small-en-v1.5-gguf) y seleccione la cuantización que desea descargar.
Verá una marca de verificación verde y la palabra 'Downloaded' una vez que el modelo se haya descargado correctamente. Una vez que este modelo haya terminado de descargarse, navegue a la pestaña 'Local Server' en el menú de la izquierda, y abra el cargador para modelos de embebido de texto.
Seleccione el modelo que acaba de descargar del menú desplegable.
Todo lo que queda por hacer es presionar el botón 'Start Server'. Y si ve texto como el que se muestra a continuación en la consola, ¡está listo! Puede usar esto como un reemplazo directo para la API de embebidos de OpenAI.
Ejemplo de solicitud curl al endpoint de la API:
curl http://localhost:1234/v1/embeddings \
-H "Content-Type: application/json" \
-d '{
"input": "Your text string goes here",
"model": "model-identifier-here"
}'
Funcionalidades
- 12 capas
- Tamaño de embebido de 768
- Soporte hasta 512 tokens de contexto
- Archivos en formato GGUF
- Compatibilidad con llama.cpp y LM Studio
Casos de uso
- Calcular embebidos de consultas de búsqueda
- Incrustaciones de texto para APIs de embebidos
- Facilitar la clasificación y búsqueda de textos