snowflake-arctic-embed-s-Q8_0-GGUF
Este modelo fue convertido al formato GGUF desde Snowflake/snowflake-arctic-embed-s usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Se utiliza para la similitud de oraciones y la extracción de características. Consulte la tarjeta de modelo original para más detalles.
Como usar
Instalar llama.cpp a través de brew (funciona en Mac y Linux):
brew install llama.cpp
Invocar el servidor de llama.cpp o el CLI.
CLI:
llama-cli --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -p "El significado de la vida y el universo es"
Servidor:
llama-server --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -c 2048
Nota: También puedes usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.
Paso 1: Clonar llama.cpp desde GitHub.
git clone https://github.com/ggerganov/llama.cpp
Paso 2: Moverse a la carpeta de llama.cpp y construirlo con la bandera LLAMA_CURL=1 junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
cd llama.cpp && LLAMA_CURL=1 make
Paso 3: Ejecutar la inferencia a través del binario principal.
./llama-cli --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -p "El significado de la vida y el universo es"
O
./llama-server --hf-repo yishan-wang/snowflake-arctic-embed-s-Q8_0-GGUF --hf-file snowflake-arctic-embed-s-q8_0.gguf -c 2048
Funcionalidades
- Similitud de oraciones
- Transformadores
- Extracción de características
- Compatible con llama.cpp
Casos de uso
- Clasificación de sentimientos en reseñas de Amazon
- Clasificación de oraciones contrafactuales de Amazon
- Clasificación de polaridad de Amazon
- Clasificación de reseñas de Amazon
- Evaluaciones de ArguAna en MTEB