bbvch-ai/bge-m3-GGUF
bbvch-ai
Similitud de oraciones
Este modelo fue convertido al formato GGUF desde BAAI/bge-m3 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Para más detalles sobre el modelo original, consulte la tarjeta del modelo original.
Como usar
Uso con llama.cpp
Instalación
Instale llama.cpp a través de brew (funciona en Mac y Linux)
brew install llama.cpp
Invocación del servidor llama.cpp o la interfaz de línea de comandos (CLI).
CLI:
llama-cli --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"
Servidor:
llama-server --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -c 2048
Nota: También puede utilizar este checkpoint directamente a través de los pasos de uso listados en el repositorio Llama.cpp.
Pasos:
- Clonar llama.cpp de GitHub.
git clone https://github.com/ggerganov/llama.cpp
- Moverse a la carpeta llama.cpp y construirla con la bandera LLAMA_CURL=1 junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
cd llama.cpp && LLAMA_CURL=1 make
- Ejecutar la inferencia a través del binario principal.
./llama-cli --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"
O
./llama-server --hf-repo bbvch-ai/bge-m3-GGUF --hf-file bge-m3-q4_k_m.gguf -c 2048
Funcionalidades
- Transformación de texto en oraciones similares
- Extracción de características
- Formato GGUF
- Modo cuantificado (Q4_K_M, 4 bits)
Casos de uso
- Detección de similitud entre oraciones
- Extracción de características de texto