bbvch-ai/bge-m3-GGUF

bbvch-ai
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde BAAI/bge-m3 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Para más detalles sobre el modelo original, consulte la tarjeta del modelo original.

Como usar

Uso con llama.cpp

Instalación

Instale llama.cpp a través de brew (funciona en Mac y Linux)

brew install llama.cpp

Invocación del servidor llama.cpp o la interfaz de línea de comandos (CLI).

CLI:

llama-cli --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"

Servidor:

llama-server --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -c 2048

Nota: También puede utilizar este checkpoint directamente a través de los pasos de uso listados en el repositorio Llama.cpp.

Pasos:

  1. Clonar llama.cpp de GitHub.
git clone https://github.com/ggerganov/llama.cpp
  1. Moverse a la carpeta llama.cpp y construirla con la bandera LLAMA_CURL=1 junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
cd llama.cpp && LLAMA_CURL=1 make
  1. Ejecutar la inferencia a través del binario principal.
./llama-cli --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"

O

./llama-server --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -c 2048

Funcionalidades

Transformación de texto en oraciones similares
Extracción de características
Formato GGUF
Modo cuantificado (Q4_K_M, 4 bits)

Casos de uso

Detección de similitud entre oraciones
Extracción de características de texto