barnowak/gte-Qwen2-7B-instruct-Q4_K_M-GGUF

barnowak
Similitud de oraciones

Este modelo fue convertido al formato GGUF desde Alibaba-NLP/gte-Qwen2-7B-instruct utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta del modelo original para más detalles sobre el modelo.

Como usar

Instalar llama.cpp a través de brew (funciona en Mac y Linux)

brew install llama.cpp

Invocar el servidor de llama.cpp o el CLI.

CLI:

llama-cli --hf-repo barnowak/gte-Qwen2-7B-instruct-Q4_K_M-GGUF --hf-file gte-qwen2-7b-instruct-q4_k_m.gguf -p "El significado de la vida y el universo es"

Servidor:

llama-server --hf-repo barnowak/gte-Qwen2-7B-instruct-Q4_K_M-GGUF --hf-file gte-qwen2-7b-instruct-q4_k_m.gguf -c 2048

Nota: También puede usar este punto de control directamente siguiendo los pasos de uso listados en el repositorio Llama.cpp.

Paso 1: Clonar llama.cpp desde GitHub.

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Moverse a la carpeta llama.cpp y construirla con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecutar inferencia a través del binario principal.

./llama-cli --hf-repo barnowak/gte-Qwen2-7B-instruct-Q4_K_M-GGUF --hf-file gte-qwen2-7b-instruct-q4_k_m.gguf -p "El significado de la vida y el universo es"

O

./llama-server --hf-repo barnowak/gte-Qwen2-7B-instruct-Q4_K_M-GGUF --hf-file gte-qwen2-7b-instruct-q4_k_m.gguf -c 2048

Funcionalidades

Formato GGUF
Arquitectura qwen2 de 4 bits Q4_K_M
Transformers
Compatibilidad con llama.cpp
Resultados de evaluación en MTEB AmazonCounterfactualClassification y AmazonPolarityClassification

Casos de uso

Clasificación de sentimientos en textos de reseñas de Amazon
Clasificación de polaridad en textos de Amazon
Clasificación de contrahechos en textos de Amazon
Evaluación de argumentos en textos de ArguAna