bcastle/snowflake-arctic-embed-l-Q8_0-GGUF

bcastle
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde Snowflake/snowflake-arctic-embed-l utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta del modelo original para obtener más detalles sobre el modelo.

Como usar

Usar con llama.cpp

Instale llama.cpp a través de brew (funciona en Mac y Linux)

brew install llama.cpp

Invoque el servidor llama.cpp o el CLI.

CLI:

llama-cli --hf-repo bcastle/snowflake-arctic-embed-l-Q8_0-GGUF --hf-file snowflake-arctic-embed-l-q8_0.gguf -p "The meaning to life and the universe is"

Servidor:

llama-server --hf-repo bcastle/snowflake-arctic-embed-l-Q8_0-GGUF --hf-file snowflake-arctic-embed-l-q8_0.gguf -c 2048

Nota: También puede usar este punto de control directamente a través de los pasos de uso enumerados en el repositorio de Llama.cpp.

Paso 1: Clonar llama.cpp desde GitHub.

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Moverse a la carpeta llama.cpp y compilarla con el flag LLAMA_CURL=1 junto con otros flags específicos para el hardware (por ejemplo, LLAMA_CUDA=1 para GPUs Nvidia en Linux).

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecutar la inferencia a través del binario principal.

./llama-cli --hf-repo bcastle/snowflake-arctic-embed-l-Q8_0-GGUF --hf-file snowflake-arctic-embed-l-q8_0.gguf -p "The meaning to life and the universe is"

O

./llama-server --hf-repo bcastle/snowflake-arctic-embed-l-Q8_0-GGUF --hf-file snowflake-arctic-embed-l-q8_0.gguf -c 2048

Funcionalidades

Similitud de oraciones
sentence-transformers
Transformers.js
Extracción de características
mteb
arctic
snowflake-arctic-embed
llama-cpp
gguf-my-repo

Casos de uso

Similitud de oraciones para aplicaciones de búsqueda
Clasificación y análisis de sentimientos en comentarios de productos
Clasificación de polaridad
Evaluación de argumentaciones