chihlunLee/NoInstruct-small-Embedding-v0-Q4_0-GGUF
chihlunLee
Similitud de oraciones
Este modelo fue convertido al formato GGUF de avsolatorio/NoInstruct-small-Embedding-v0 usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulta la tarjeta del modelo original para más detalles sobre el modelo.
Como usar
Instalar llama.cpp a través de brew (funciona en Mac y Linux)
brew install llama.cpp
Invocar el servidor llama.cpp o la CLI.
CLI:
llama-cli --hf-repo chihlunLee/NoInstruct-small-Embedding-v0-Q4_0-GGUF --hf-file noinstruct-small-embedding-v0-q4_0.gguf -p "El significado de la vida y del universo es"
Server:
llama-server --hf-repo chihlunLee/NoInstruct-small-Embedding-v0-Q4_0-GGUF --hf-file noinstruct-small-embedding-v0-q4_0.gguf -c 2048
Nota: También puedes usar este punto de control directamente a través de los pasos de uso enumerados en el repositorio de Llama.cpp.
Paso 1: Clona llama.cpp de GitHub.
git clone https://github.com/ggerganov/llama.cpp
Paso 2: Muévete a la carpeta llama.cpp y compílala con la bandera LLAMA_CURL=1 junto con otras banderas específicas de hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
cd llama.cpp && LLAMA_CURL=1 make
Paso 3: Ejecuta la inferencia a través del binario principal.
./llama-cli --hf-repo chihlunLee/NoInstruct-small-Embedding-v0-Q4_0-GGUF --hf-file noinstruct-small-embedding-v0-q4_0.gguf -p "El significado de la vida y del universo es"
o
./llama-server --hf-repo chihlunLee/NoInstruct-small-Embedding-v0-Q4_0-GGUF --hf-file noinstruct-small-embedding-v0-q4_0.gguf -c 2048
Funcionalidades
- Transformers
- Extracción de características
- Evaluación de endpoints de inferencia
- Mit (licencia)
- Tamaño del modelo GGUF: 33.2M parámetros
- Arquitectura: bert
- Cuantización: 4-bit Q4_0
Casos de uso
- Similitud de oraciones
- Clasificación de polaridad en Amazon
- Clasificación de reseñas en Amazon
- Clasificación contra-factual en Amazon