cm4ker/USER-bge-m3-Q4_K_M-GGUF

cm4ker
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde deepvk/USER-bge-m3 usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulta la tarjeta del modelo original para más detalles sobre el modelo.

Como usar

Uso con llama.cpp

Instalar llama.cpp a través de brew (funciona en Mac y Linux):

brew install llama.cpp

Invocar el servidor de llama.cpp o la CLI.

CLI:

llama-cli --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"

Servidor:

llama-server --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -c 2048

Nota: También puedes usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.

Paso 1: Clona llama.cpp desde GitHub:

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Muévete a la carpeta de llama.cpp y construye con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux):

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecuta la inferencia a través del binario principal:

./llama-cli --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -p "The meaning to life and the universe is"
./llama-server --hf-repo cm4ker/USER-bge-m3-Q4_K_M-GGUF --hf-file user-bge-m3-q4_k_m.gguf -c 2048

Funcionalidades

Similitud de oraciones
Extracción de características
Transformadores de oraciones
Formato GGUF
Compatibilidad con llama.cpp

Casos de uso

Comparación de similitud de oraciones
Extracción de características semánticas de textos en ruso