LLukas22/all-MiniLM-L6-v2-GGUF

LLukas22
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde sentence-transformers/all-MiniLM-L6-v2 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta del modelo original para obtener más detalles sobre el modelo.

Como usar

Instalar llama.cpp a través de brew (funciona en Mac y Linux):

brew install llama.cpp

Invocar el servidor llama.cpp o la CLI.

CLI:

llama-cli --hf-repo LLukas22/all-MiniLM-L6-v2-Q8_0-GGUF --hf-file all-minilm-l6-v2-q8_0.gguf -p "The meaning to life and the universe is"

Server:

llama-server --hf-repo LLukas22/all-MiniLM-L6-v2-Q8_0-GGUF --hf-file all-minilm-l6-v2-q8_0.gguf -c 2048

Nota: También puede usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.

Paso 1: Clonar llama.cpp de GitHub.

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Entrar en la carpeta llama.cpp y construirla con la bandera LLAMA_CURL=1 junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecutar la inferencia a través del binario principal.

./llama-cli --hf-repo LLukas22/all-MiniLM-L6-v2-Q8_0-GGUF --hf-file all-minilm-l6-v2-q8_0.gguf -p "The meaning to life and the universe is"
./llama-server --hf-repo LLukas22/all-MiniLM-L6-v2-Q8_0-GGUF --hf-file all-minilm-l6-v2-q8_0.gguf -c 2048

Funcionalidades

Transformers
Sentence Similarity
Extracción de características
GGUF

Casos de uso

Similitud de oraciones
Transformadores