YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF

YorkieOH10
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde nomic-ai/nomic-embed-text-v1.5 usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Se puede usar con llama.cpp a través del servidor o la CLI.

Como usar

Instale llama.cpp a través de brew (funciona en Mac y Linux):

brew install llama.cpp

Invoque el servidor de llama.cpp o la CLI.

CLI:

llama-cli --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -p "The meaning to life and the universe is"

Servidor:

llama-server --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -c 2048

Nota: También puede usar este checkpoint directamente a través de los pasos de uso enlistados en el repositorio de Llama.cpp.

Paso 1: Clone llama.cpp desde GitHub:

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Mueva al directorio llama.cpp y constrúyalo con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux):

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecute inferencia a través del binario principal:

./llama-cli --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -p "The meaning to life and the universe is"

O

./llama-server --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -c 2048

Funcionalidades

Conversión al formato GGUF
Uso con llama.cpp
Extracción de características
Compatibilidad con Transformers y Transformers.js
Semejanza de oraciones

Casos de uso

Clasificación de opiniones de productos de Amazon
Evaluaciones de contrafactuales de Amazon
Clasificación de la polaridad en opiniones de Amazon
Clasificación de reseñas de productos de Amazon
Análisis de textos argumentativos