snowflake-arctic-embed-s-Q8_0-GGUF

yishan-wang
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde Snowflake/snowflake-arctic-embed-s usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Se utiliza para la similitud de oraciones y la extracción de características. Consulte la tarjeta de modelo original para más detalles.

Como usar

Instalar llama.cpp a través de brew (funciona en Mac y Linux):

brew install llama.cpp

Invocar el servidor de llama.cpp o el CLI.

CLI:

llama-cli --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -p "El significado de la vida y el universo es"

Servidor:

llama-server --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -c 2048

Nota: También puedes usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.

Paso 1: Clonar llama.cpp desde GitHub.

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Moverse a la carpeta de llama.cpp y construirlo con la bandera LLAMA_CURL=1 junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecutar la inferencia a través del binario principal.

./llama-cli --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -p "El significado de la vida y el universo es"

O

./llama-server --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -c 2048

Funcionalidades

Similitud de oraciones
Transformadores
Extracción de características
Compatible con llama.cpp

Casos de uso

Clasificación de sentimientos en reseñas de Amazon
Clasificación de oraciones contrafactuales de Amazon
Clasificación de polaridad de Amazon
Clasificación de reseñas de Amazon
Evaluaciones de ArguAna en MTEB