YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF
YorkieOH10
Similitud de oraciones
Este modelo fue convertido al formato GGUF desde nomic-ai/nomic-embed-text-v1.5 usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Se puede usar con llama.cpp a través del servidor o la CLI.
Como usar
Instale llama.cpp a través de brew (funciona en Mac y Linux):
brew install llama.cpp
Invoque el servidor de llama.cpp o la CLI.
CLI:
llama-cli --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -p "The meaning to life and the universe is"
Servidor:
llama-server --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -c 2048
Nota: También puede usar este checkpoint directamente a través de los pasos de uso enlistados en el repositorio de Llama.cpp.
Paso 1: Clone llama.cpp desde GitHub:
git clone https://github.com/ggerganov/llama.cpp
Paso 2: Mueva al directorio llama.cpp y constrúyalo con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux):
cd llama.cpp && LLAMA_CURL=1 make
Paso 3: Ejecute inferencia a través del binario principal:
./llama-cli --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -p "The meaning to life and the universe is"
O
./llama-server --hf-repo YorkieOH10/nomic-embed-text-v1.5-Q8_0-GGUF --hf-file nomic-embed-text-v1.5-q8_0.gguf -c 2048
Funcionalidades
- Conversión al formato GGUF
- Uso con llama.cpp
- Extracción de características
- Compatibilidad con Transformers y Transformers.js
- Semejanza de oraciones
Casos de uso
- Clasificación de opiniones de productos de Amazon
- Evaluaciones de contrafactuales de Amazon
- Clasificación de la polaridad en opiniones de Amazon
- Clasificación de reseñas de productos de Amazon
- Análisis de textos argumentativos