RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF

RinaChen
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde el modelo nomic-ai/nomic-embed-text-v1.5 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta de modelo original para más detalles sobre el modelo.

Como usar

Instalar llama.cpp a través de brew (funciona en Mac y Linux):

brew install llama.cpp

Invocar el servidor llama.cpp o el CLI:

CLI:

llama-cli --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -p "The meaning to life and the universe is"

o

Servidor:

llama-server --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -c 2048

Nota: También puede utilizar este checkpoint directamente a través de los pasos de uso listados en el repositorio Llama.cpp.

Paso 1: Clonar llama.cpp desde GitHub.

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Moverse a la carpeta llama.cpp y compilarlo con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecutar la inferencia a través del binario principal.

./llama-cli --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -p "The meaning to life and the universe is"

o

./llama-server --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -c 2048

Funcionalidades

Transformers
Transformers.js
Extracción de características
Pruebas en el benchmark de Monolingual Text Benchmarks (MTEB)

Casos de uso

Similitud de frases
Extracción de características
Clasificación de reseñas de Amazon
Clasificación de polaridad de Amazon
Evaluación de argumentos con el benchmark ArguAna