RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF
Este modelo fue convertido al formato GGUF desde el modelo nomic-ai/nomic-embed-text-v1.5 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta de modelo original para más detalles sobre el modelo.
Como usar
Instalar llama.cpp a través de brew (funciona en Mac y Linux):
brew install llama.cpp
Invocar el servidor llama.cpp o el CLI:
CLI:
llama-cli --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -p "The meaning to life and the universe is"
o
Servidor:
llama-server --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -c 2048
Nota: También puede utilizar este checkpoint directamente a través de los pasos de uso listados en el repositorio Llama.cpp.
Paso 1: Clonar llama.cpp desde GitHub.
git clone https://github.com/ggerganov/llama.cpp
Paso 2: Moverse a la carpeta llama.cpp y compilarlo con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
cd llama.cpp && LLAMA_CURL=1 make
Paso 3: Ejecutar la inferencia a través del binario principal.
./llama-cli --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -p "The meaning to life and the universe is"
o
./llama-server --hf-repo RinaChen/nomic-embed-text-v1.5-Q4_K_M-GGUF --hf-file nomic-embed-text-v1.5-q4_k_m.gguf -c 2048
Funcionalidades
- Transformers
- Transformers.js
- Extracción de características
- Pruebas en el benchmark de Monolingual Text Benchmarks (MTEB)
Casos de uso
- Similitud de frases
- Extracción de características
- Clasificación de reseñas de Amazon
- Clasificación de polaridad de Amazon
- Evaluación de argumentos con el benchmark ArguAna