cm4ker/USER-bge-m3-Q4_K_M-GGUF
Este modelo fue convertido al formato GGUF desde deepvk/USER-bge-m3 usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulta la tarjeta del modelo original para más detalles sobre el modelo.
Como usar
Uso con llama.cpp
Instalar llama.cpp a través de brew (funciona en Mac y Linux):
brew install llama.cpp
Invocar el servidor de llama.cpp o la CLI.
CLI:
llama-cli --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"
Servidor:
llama-server --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -c 2048
Nota: También puedes usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.
Paso 1: Clona llama.cpp desde GitHub:
git clone https://github.com/ggerganov/llama.cpp
Paso 2: Muévete a la carpeta de llama.cpp y construye con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux):
cd llama.cpp && LLAMA_CURL=1 make
Paso 3: Ejecuta la inferencia a través del binario principal:
./llama-cli --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"
./llama-server --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -c 2048
Funcionalidades
- Similitud de oraciones
- Extracción de características
- Transformadores de oraciones
- Formato GGUF
- Compatibilidad con llama.cpp
Casos de uso
- Comparación de similitud de oraciones
- Extracción de características semánticas de textos en ruso