KimChen/bge-m3-GGUF
KimChen
Similitud de oraciones
Este modelo fue convertido al formato GGUF desde BAAI/bge-m3 usando llama.cpp. Consulte la tarjeta del modelo original para obtener más detalles sobre el modelo.
Como usar
Instalar llama.cpp mediante brew (funciona en Mac y Linux):
brew install llama.cpp
Invocar el servidor o el CLI de llama.cpp.
CLI:
llama-cli --hf-repo KimChen/bge-m3-GGUF --hf-file bge-m3.gguf -p "El significado de la vida y el universo es"
Servidor:
llama-server --hf-repo KimChen/bge-m3-GGUF --hf-file bge-m3.gguf -c 2048
Nota: También puede usar este punto de control directamente a través de los pasos de uso enumerados en el repositorio de Llama.cpp.
Paso 1: Clonar llama.cpp desde GitHub.
git clone https://github.com/ggerganov/llama.cpp.git
Paso 2: Moverse a la carpeta llama.cpp y construirla con la bandera LLAMA_CURL=1 junto con otras banderas específicas del hardware (por ej: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
cd llama.cpp && LLAMA_CURL=1 make
Paso 3: Ejecutar la inferencia a través del binario principal.
./llama-cli --hf-repo KimChen/bge-m3-GGUF --hf-file bge-m3.gguf -p "El significado de la vida y el universo es"
También puede ejecutarlo como servidor:
./llama-server --hf-repo KimChen/bge-m3-GGUF --hf-file bge-m3.gguf -c 2048
Funcionalidades
- Conversión a formato GGUF
- Compatible con llama.cpp CLI y Server
- Características de similitud de oraciones y extracción de características
Casos de uso
- Extracción de características
- Similitud de oraciones